- •Следовательно, векторRsy стремиться по направлению к вектору а1, но его длина значительно отличается от единичной.
- •2.10. Теоретико-информационный подход.
- •2.11. Проблема интерпретации значений коэффициентов связи.
- •Тема 1. Корреляционные связи и их свойства.
- •Тема 2. Качественные связи и их свойства.
- •3. Задача факторного анализа
- •3.1. Модель факторного анализа
- •3.2. Структура факторных уравнений
- •3.3. Неоднозначность факторного решения
- •3.4. Метод главных факторов
- •3.6. Проблема оценки значений факторов и виды факторных моделей.
- •3.7. Оценка общностей и вращение факторов.
- •3.8. Экстремальная группировка признаков (параметров).
- •3.9. Алгоритмы экстремальной группировки.
- •Тема 1. Основные факторные модели и их свойства.
- •Тема 2. Основные проблемы факторного анализа.
- •Тема 3. Методы экстремальной группировки признаков.
- •4.3. Вероятности ошибки байесовского классификатора.
- •4.5. Восстановление плотностей распределения классов.
- •4.6. Восстановление функций степени достоверности.
Тема 1. Основные факторные модели и их свойства.
Модель факторного анализа. Структура факторных уравнений. Неоднозначность факторного решения. Метод главных факторов. Метод центроидных факторов.
Раскройте содержательный смысл факторной модели.
Что такое факторная структура и факторное отображение?
Какова структура факторных уравнений?
Что является главной задачей факторного анализа?
Что такое общие факторы?
Что такое характерные факторы?
Что такое общности и характерности?
Опишите виды факторных разложений корреляционной матрицы.
Почему факторное решение неоднозначно?
Опишите метод главных факторов.
Опишите метод центроидных факторов.
Тема 2. Основные проблемы факторного анализа.
Проблема оценки значений факторов и виды факторных моделей. Оценки общностей и вращение факторов.
Как оценить приближенно значения факторов на объектах?
В чем смысл противоречивости факторной модели?
Как устранить противоречивость факторной модели?
В чем отличие компонентной модели от факторной?
Объясните содержательный смысл компонентной модели.
Сформулируйте задачу оценки общностей.
Что такое простая структура и её геометрический смысл?
Опишите критерии вращения факторов.
Тема 3. Методы экстремальной группировки признаков.
Экстремальная группировка признаков (параметров). Алгоритмы экстремальной группировки.
В чем смысл экстремальной группировки признаков?
Покажите принципиальную связь методов экстремальной группировки и факторного анализа?
Опишите первый алгоритм экстремальной группировки.
4*. Опишите второй алгоритм экстремальной группировки.
5*. Сравните достоинства и недостатки первого и второго алгоритмов экстремальной группировки.
Задача классификации и кластер-анализ.
Постановка задачи классификации и кластер-анализа.
Пусть производятся наблюдения над некоторыми объектами появляется случайно и независимо от другого и объективно принадлежит одному из m классов к, к=1, …m. Требуется, при появлении очередного объекта i, i=1, 2, …, определить его принадлежность к одному из классов к, к=1,…m.
Заметим, что число N наблюдаемых объектов принципиально не ограничено: N, то есть решением задачи классификации должен быть способ определения принадлежности к некоторому классу каждого вновь появившегося объекта независимо от остальных. Такой способ реализуется в виде так называемого решающего правила.
Решающее правило представляет собой некоторую функцию g(), принимающую значения на множестве классов {1, …m}, где g()=к при iк. Пусть результат наблюдения объекта i представлен n-мерным вектором xi=(xi1,…xin). Тогда решающая функция g() доступна нам в виде функции g(x), причем мы хотим, чтобы выполнялось условие g(xi)= к при xiк.
Наиболее общим подходом к решению задачи классификации является вероятностный подход к поиску решающего правила классификации. При вероятностном подходе предполагается, что в n-мерном пространстве задана m-модальная плотность распределения вероятностей, где локальные максимумы плотности распределения характеризуют локальные сгущения объектов в пространстве. В данном случае области 1, …m локального сгущения объектов являются, вообще говоря, пресекающимися, накрывающими в совокупности все пространство, и не являются в этом смысле классами. Классификация порождается решающим правилом g(x) в виде непересекающихся областей *кк, к=1, …m также накрывающими в общем случае все признаковое пространство, где g(xi)= к, при xi*к.
Основой вероятностного подхода к поиску классификации методам принятия решения о классе объекта является байесовская теория принятия решений.
Но выработка вероятностного решающего правила часто сопряжена с определенными практическими трудностями, так как требует полного знания всех соответствующих распределений вероятностей или их параметров. Если ввести упрощающее предположение, что вероятностные меры сосредоточены в ограниченных областях признакового пространства, то для выработки решающего правила можно применить детерминисткий подход. В этом случае предполагается, что области 1, …m не пересекаются, то есть *к=к , к=1,…m, и образуют разбиение n-мерного пространства на m классов. Для выработки детерминистского решающего правила требуется лишь знание характеристик, описывающих взаимное расположение областей 1, …m в признаковом пространстве.
Как уже упоминалось ранее, результаты совокупности наблюдений обычно представлены матрицей данных X(N*n). Фиксированное число наблюдений N дает возможность построить классификацию данной совокупности из N объектов не на основе решающего правила, а сразу, непосредственно перечислением номеров классов объектов. Методы построения классификации сразу перечислением решают так называемую задачу кластер-анализа. Особенность задачи кластер-анализа сотоит в том, что её решение получается при анализе одновременно всей совокупности N наблюдаемых объектов. Следовательно, методы кластер-анализа основаны на изучении характеристик взаимного расположения классов как локальных сгущений объектов в признаковом пространстве.
Но отсутствие явно заданного решающего правила приводит к необходимости вновь решать задачу кластер-анаиза для всех N наблюдений при добавлении нового наблюдения к исходной матрице данных. При этом оказывается, что классификация ранее наблюденных объектов может измениться. Это приводит нас к проблеме кластерного решения. При наличии решающего правила классификация ранее наблюденных объектов не изменяется, и их не требуется вновь анализировать – про них можно забыть.
Отметим далее, что при наличии решающего правила алгоритм классификации представляет собой простейшую процедуру отнесения объект к тому классу, номер которого указан решающим правилом. При отсутствии решающего правила для получения классификации перечислением требуется разработать специальный алгоритм. Очевидно, что алгоритмов может быть много, в зависимости от того, что понимается под характеристиками взаимного расположения классов, а также от способов получения перечисления номеров классов. В свою очередь, разнообразие алгоритмов кластер-анализа приводит к тому, что на одних и тех же данных порождаются, вообще говоря, различные классификации. Добавим, что многие алгоритмы кластер-анализа довольно просты, что весьма привлекательно на практике, но результат их работы может и не иметь достаточного статистического обоснования.
4.2. БАЙЕСОВСКОЕ РЕШАЮЩЕЕ ПРАВИЛО КЛАССИФИКАЦИИ.
Пусть для каждого класса к существует некоторая априорная вероятность его появления p(к), к=1,,m. Пусть в n-мерном пространстве Rn задана условная плотность распределения p(x|к) вектора х относительно каждого класса к. Другими словами, пусть в n-мерном пространстве определена совместная дискретно-непрерывная плотность распределения p(к,x)=p(к)Р(х|к), к=1,,m, хRn.
Пусть =[g(x),к] – потери, связанные с принятием решения xg(x) о классе объекта g(x){1,,m}, когда его истинная принадлежность xк. Будем характеризовать качество решающего правила g() математическим ожиданием потерь, которое примем за средний риск ошибки принятия решения
,
Очевидно, что выражение R[g()] можно представить как сумму интегралов
,
где минимизация всего выражения эквивалентна минимизации каждой её составляющей, причём вектор х играет роль переменной, пробегающей все значения в пространстве Rn, а не конкретного значения. Тогда для заданного значения х средний роль условный риск принятия некоторого решения g(x) запишется так
.
Тогда принятое решение есть
.
С другой стороны, после наблюдения вектора х по правилу Байеса можно найти апостериорную вероятность p(к|х) появления класса к
Тогда получим решение
.
Часто функция потерь задаётся как величина
с целью штрафовать одинаково все ошибки и достичь наименьшей величины среднего риска. Тогда принятое решение есть
,
так как .
Рассмотрим случай двух классов. Тогда условный средний риск для вектора х:
Очевидно, что принимая , еслиR[g(x)=1]<R[g(x)=2].
Выразим это условие через апостериорные вероятности, обозначив ij=[i,j]. Получим (21-11)р(1|х)>(12-22)P(2|x). Так как ij>ii, то есть потери при ошибке больше, чем при правильном решении, то 12-22>0. Поэтому при фиксированных потерях наш выбор определён наиболее правдоподобным состоянием наблюдений (наиболее апостериорной вероятностью наблюдений). Тогда получим
.
По правилу Байеса также получим эквивалентное выражение через условные вероятности
.
Здесь слева записано отношение правдоподобия. Байесовское решающее правило рекомендует выбирать класс 1, если отношение правдоподобия превышает некоторый порог, не зависящий от наблюдения х. Примем 11=22=0 и 12=21=1. Тогда получим R[g(x)=1]=p(2|x) и R[g(x)=2]=p(1|x) и примем решение
если P(2|x)<p(1|x), то есть p(1|x)>p(2|x).
Для отношения правдоподобия получим
.
Если классы 1 и 2 равновероятны, то получим простое решающее правило
.
Часто для случая двух классов решающее правило определяют в виде разделяющей функции
.
Разделяющие функции такого типа называются байесовскими классификаторами. Принимается решение , еслиd(x)>0 и , если d(x)0. Для более общего случая m классов принимается решение , если выполнено условиеdkj(x)>0 для всех j=1,,m, jk, где например, dkj(x)=p(k|x)=p(j|x), dkj(x)=-dkj(x).