Скачиваний:
115
Добавлен:
01.05.2014
Размер:
1.38 Mб
Скачать

Тема 1. Основные факторные модели и их свойства.

Модель факторного анализа. Структура факторных уравнений. Неоднозначность факторного решения. Метод главных факторов. Метод центроидных факторов.

  1. Раскройте содержательный смысл факторной модели.

  2. Что такое факторная структура и факторное отображение?

  3. Какова структура факторных уравнений?

  4. Что является главной задачей факторного анализа?

  5. Что такое общие факторы?

  6. Что такое характерные факторы?

  7. Что такое общности и характерности?

  8. Опишите виды факторных разложений корреляционной матрицы.

  9. Почему факторное решение неоднозначно?

  10. Опишите метод главных факторов.

  11. Опишите метод центроидных факторов.

Тема 2. Основные проблемы факторного анализа.

Проблема оценки значений факторов и виды факторных моделей. Оценки общностей и вращение факторов.

  1. Как оценить приближенно значения факторов на объектах?

  2. В чем смысл противоречивости факторной модели?

  3. Как устранить противоречивость факторной модели?

  4. В чем отличие компонентной модели от факторной?

  5. Объясните содержательный смысл компонентной модели.

  6. Сформулируйте задачу оценки общностей.

  7. Что такое простая структура и её геометрический смысл?

  8. Опишите критерии вращения факторов.

Тема 3. Методы экстремальной группировки признаков.

Экстремальная группировка признаков (параметров). Алгоритмы экстремальной группировки.

  1. В чем смысл экстремальной группировки признаков?

  2. Покажите принципиальную связь методов экстремальной группировки и факторного анализа?

  3. Опишите первый алгоритм экстремальной группировки.

4*. Опишите второй алгоритм экстремальной группировки.

5*. Сравните достоинства и недостатки первого и второго алгоритмов экстремальной группировки.

  1. Задача классификации и кластер-анализ.

    1. Постановка задачи классификации и кластер-анализа.

Пусть производятся наблюдения над некоторыми объектами  появляется случайно и независимо от другого и объективно принадлежит одному из m классов к, к=1, …m. Требуется, при появлении очередного объекта i, i=1, 2, …, определить его принадлежность к одному из классов к, к=1,…m.

Заметим, что число N наблюдаемых объектов принципиально не ограничено: N, то есть решением задачи классификации должен быть способ определения принадлежности к некоторому классу каждого вновь появившегося объекта независимо от остальных. Такой способ реализуется в виде так называемого решающего правила.

Решающее правило представляет собой некоторую функцию g(), принимающую значения на множестве классов {1, …m}, где g()=к при iк. Пусть результат наблюдения объекта i представлен n-мерным вектором xi=(xi1,…xin). Тогда решающая функция g() доступна нам в виде функции g(x), причем мы хотим, чтобы выполнялось условие g(xi)= к при xiк.

Наиболее общим подходом к решению задачи классификации является вероятностный подход к поиску решающего правила классификации. При вероятностном подходе предполагается, что в n-мерном пространстве задана m-модальная плотность распределения вероятностей, где локальные максимумы плотности распределения характеризуют локальные сгущения объектов в пространстве. В данном случае области 1, …m локального сгущения объектов являются, вообще говоря, пресекающимися, накрывающими в совокупности все пространство, и не являются в этом смысле классами. Классификация порождается решающим правилом g(x) в виде непересекающихся областей *кк, к=1, …m также накрывающими в общем случае все признаковое пространство, где g(xi)= к, при xi*к.

Основой вероятностного подхода к поиску классификации методам принятия решения о классе объекта является байесовская теория принятия решений.

Но выработка вероятностного решающего правила часто сопряжена с определенными практическими трудностями, так как требует полного знания всех соответствующих распределений вероятностей или их параметров. Если ввести упрощающее предположение, что вероятностные меры сосредоточены в ограниченных областях признакового пространства, то для выработки решающего правила можно применить детерминисткий подход. В этом случае предполагается, что области 1, …m не пересекаются, то есть *к=к , к=1,…m, и образуют разбиение n-мерного пространства на m классов. Для выработки детерминистского решающего правила требуется лишь знание характеристик, описывающих взаимное расположение областей 1, …m в признаковом пространстве.

Как уже упоминалось ранее, результаты совокупности наблюдений обычно представлены матрицей данных X(N*n). Фиксированное число наблюдений N дает возможность построить классификацию данной совокупности из N объектов не на основе решающего правила, а сразу, непосредственно перечислением номеров классов объектов. Методы построения классификации сразу перечислением решают так называемую задачу кластер-анализа. Особенность задачи кластер-анализа сотоит в том, что её решение получается при анализе одновременно всей совокупности N наблюдаемых объектов. Следовательно, методы кластер-анализа основаны на изучении характеристик взаимного расположения классов как локальных сгущений объектов в признаковом пространстве.

Но отсутствие явно заданного решающего правила приводит к необходимости вновь решать задачу кластер-анаиза для всех N наблюдений при добавлении нового наблюдения к исходной матрице данных. При этом оказывается, что классификация ранее наблюденных объектов может измениться. Это приводит нас к проблеме кластерного решения. При наличии решающего правила классификация ранее наблюденных объектов не изменяется, и их не требуется вновь анализировать – про них можно забыть.

Отметим далее, что при наличии решающего правила алгоритм классификации представляет собой простейшую процедуру отнесения объект к тому классу, номер которого указан решающим правилом. При отсутствии решающего правила для получения классификации перечислением требуется разработать специальный алгоритм. Очевидно, что алгоритмов может быть много, в зависимости от того, что понимается под характеристиками взаимного расположения классов, а также от способов получения перечисления номеров классов. В свою очередь, разнообразие алгоритмов кластер-анализа приводит к тому, что на одних и тех же данных порождаются, вообще говоря, различные классификации. Добавим, что многие алгоритмы кластер-анализа довольно просты, что весьма привлекательно на практике, но результат их работы может и не иметь достаточного статистического обоснования.

4.2. БАЙЕСОВСКОЕ РЕШАЮЩЕЕ ПРАВИЛО КЛАССИФИКАЦИИ.

Пусть для каждого класса к существует некоторая априорная вероятность его появления p(к), к=1,,m. Пусть в n-мерном пространстве Rn задана условная плотность распределения p(x|к) вектора х относительно каждого класса к. Другими словами, пусть в n-мерном пространстве определена совместная дискретно-непрерывная плотность распределения p(к,x)=p(к)Р(х|к), к=1,,m, хRn.

Пусть =[g(x),к] – потери, связанные с принятием решения xg(x) о классе объекта g(x){1,,m}, когда его истинная принадлежность xк. Будем характеризовать качество решающего правила g() математическим ожиданием потерь, которое примем за средний риск ошибки принятия решения

,

Очевидно, что выражение R[g()] можно представить как сумму интегралов

,

где минимизация всего выражения эквивалентна минимизации каждой её составляющей, причём вектор х играет роль переменной, пробегающей все значения в пространстве Rn, а не конкретного значения. Тогда для заданного значения х средний роль условный риск принятия некоторого решения g(x) запишется так

.

Тогда принятое решение есть

.

С другой стороны, после наблюдения вектора х по правилу Байеса можно найти апостериорную вероятность p(к|х) появления класса к

Тогда получим решение

.

Часто функция потерь задаётся как величина

с целью штрафовать одинаково все ошибки и достичь наименьшей величины среднего риска. Тогда принятое решение есть

,

так как .

Рассмотрим случай двух классов. Тогда условный средний риск для вектора х:

Очевидно, что принимая , еслиR[g(x)=1]<R[g(x)=2].

Выразим это условие через апостериорные вероятности, обозначив ij=[i,j]. Получим (21-11)р(1|х)>(12-22)P(2|x). Так как ij>ii, то есть потери при ошибке больше, чем при правильном решении, то 12-22>0. Поэтому при фиксированных потерях наш выбор определён наиболее правдоподобным состоянием наблюдений (наиболее апостериорной вероятностью наблюдений). Тогда получим

.

По правилу Байеса также получим эквивалентное выражение через условные вероятности

.

Здесь слева записано отношение правдоподобия. Байесовское решающее правило рекомендует выбирать класс 1, если отношение правдоподобия превышает некоторый порог, не зависящий от наблюдения х. Примем 11=22=0 и 12=21=1. Тогда получим R[g(x)=1]=p(2|x) и R[g(x)=2]=p(1|x) и примем решение

если P(2|x)<p(1|x), то есть p(1|x)>p(2|x).

Для отношения правдоподобия получим

.

Если классы 1 и 2 равновероятны, то получим простое решающее правило

.

Часто для случая двух классов решающее правило определяют в виде разделяющей функции

.

Разделяющие функции такого типа называются байесовскими классификаторами. Принимается решение , еслиd(x)>0 и , если d(x)0. Для более общего случая m классов принимается решение , если выполнено условиеdkj(x)>0 для всех j=1,,m, jk, где например, dkj(x)=p(k|x)=p(j|x), dkj(x)=-dkj(x).

Соседние файлы в папке Основы обработки данных