Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
вопр2.doc
Скачиваний:
1
Добавлен:
22.04.2019
Размер:
881.15 Кб
Скачать

37. Произв функция. Основные

понятия и ее свойства.

Q=A . Lα . kβ, где Q – объём производства, A, α, β –

const, L – труд, K – капитал.

Если α+β=1, то функция Кобба-Дугласа является

однородной (т.е. она демонстрирует постоянную

отдачу при изменении масштабов производства).

Если α+β>1, то функция отражает возрастающую

отдачу, при α+β<1 – убывающую отдачу.

Свойства:

1.

Производственная

функция

Кобба-Дугласа

устанавливает зависимость величины созданного

общественного продукта от совокупных затрат

живого

труда

(х1)

и

суммарного

объёма,

применяемых производственных фондов (х2)

α1 x2α2 , A>0

y= A0 x1

A0 - коэффициент, учитывает влияние факторов, не

вошедших в это уравнение, их конкретное числовое

значение определяется на основе статистических

данных с помощью корреляционных исследований.

Если α1+α2=1, то увеличение ресурсов в m раз

приводит к увеличению объёма производства также

в m раз. Это отвечает предположению, что удвоение

числа предприятий отрасли приводит к удвоению

выпускаемых отраслью продуктов.

2. Разделив обе части уравнения (1) на х1,

получаем среднюю производительность труда. Она

показывает, сколько единиц выпускаемой продукции

приходится на единицу затрачиваемого труда. Для

функции Кобба-Дугласа с увеличением затрат труда

средняя производительность труда падает.

3.

Предельная

производительность

труда

показывает,

сколько

доп.

ед.

продукции

принесет

доп.

ед.

затраченного

труда.

Для

производственной

функции

Кобба-Дугласа

предельная производительность труда всегда ниже

средней производительнсти.

4. Эластичность выпуска показывает, на сколько %

увеличивается выпуск при увеличении затрат труда

на 1%. Объём продукции в расчете на единицу

используемых производственных фондов называется

фондоотдачей

40. Множестввенная регрессия

Общую линейную модель можно рассматривать как расширение линейной множественной регрессии для случая одной зависимой переменной, и понятие множественной регрессионной модели является фундаментом к пониманию общей линейной модели. Главная задача множественной регрессии (этот термин был впервые использован Пирсоном в 1908) заключается в определении взаимосвязи между несколькими независимыми переменными (предикторами) и зависимой переменной. Например, риэлтор может собрать данные о размере дома, числе комнат, среднем доходе и рейтинге местоположения жилья. На основе этой информации можно попытаться определить, как связана цена дома с другими факторами. Например, может выясниться, что количество комнат является наилучшим предиктором цены. Также могут обнаружиться некоторые "выбросы" - например, дома которые продаются слишком дорого.

Методы множественной регрессии широко используются, например, в социологии. Множественная регрессия позволяет аналитику получить ответы на вопросы, типа "какой наилучший предиктор для ...". Например, работники образования могут выявить наилучшие предикторы успешного поступления в высшую школу, а психологи могут изучать характеристики человека.

Вычислительные методы решения уравнения множественной регрессии

Одномерная поверхность в двумерном пространстве - это прямая, определяемая уравнением Y=b0+b1X. Согласно этому выражению, переменная Y может быть представлена как функция константы (b0) и коэффициента наклона (b1), умноженного на значение переменной X. Константу иногда называют свободным членом, коэффициент наклона - коэффициентом регрессии. Например, индекс GPA можно оценить как 1+.02*IQ. Поэтому, зная, что студент имеет коэффициент IQ равный 130, можно ожидать, что его коэффициент GPA будет равен 3.6 (поскольку, 1+.02*130=3.6). В случае множественной регрессии (когда используется несколько предикторов) регрессионную поверхность нельзя отобразить в двумерном пространстве, но вычисления практически не изменяются. Например, если кроме коэффициента IQ мы будем использовать дополнительные предикторы (например, уровень мотивации, уровень самодисциплины), то сможем построить линейное уравнение, содержащее все эти переменные. В общем случае, процедура множественной регрессии оценивает линейное уравнение в виде:

Y = b0 + b1X1 + b2X2 + ... + bkXk,

где k - число предикторов. Отметим, что в этом уравнении регрессионные коэффициенты ( b1 ... bk) представляют независимые вклады каждой независимой переменной в предсказание зависимой переменной. Иначе, можно сказать, что переменная X1 коррелирована с переменной Y при условии, что все другие независимые переменные фиксированы. Этот тип корреляции называется частная корреляция (этот термин впервые был введен в Yule, 1907). Возможно, следующий пример разъяснит это понятие. Было выявлено, что существует значимая отрицательная корреляция между длиной волос и ростом человека (то есть, более низкие люди имеют более длинные волосы). На первый взгляд, данный факт может показаться странным, однако, если в уравнение множественной регрессии мы введем переменную Пол, то эта корреляция исчезнет. Очевидно, что женщины (в среднем) имеют более длинные волосы, чем мужчины, и они (в среднем) ниже мужчин. После того, как мы исключим скрытое влияние пола, зависимость между длиной волос и ростом человека исчезнет, поскольку длина волос не имеет уникального вклада в предсказание роста человека. С другой стороны, изменяя значение переменной Пол, мы получим, что частная корреляция между длиной волос и ростом человека будет равна нулю.

Регрессионная поверхность (линия - в случае простой регрессии, плоскость или другая поверхность - в случае множественной регрессии) выражает наилучшее предсказанное значение зависимой переменной (Y) для заданных значений независимых переменных (X). Однако, в действительности редко можно предсказать что-то с абсолютной точностью, и обычно существует необъясненные отклонения наблюдаемых точек от подогнанной регрессионной поверхности. Отклонение отдельной точки от ближайшей соответствующей точки на предсказанной регрессионной поверхности называется остаточным значением (или, просто, остатком). Поскольку задача линейных регрессионных процедур заключается в подгонке поверхности, которая является линейной функцией от переменных X, в соответствии с наблюдаемой переменной Y, остаточные значения наблюдаемых точек можно использовать при разработке критерия "наилучшей подгонки". В задачах регрессии поверхность вычисляется так, чтобы минимизировать сумму квадратов отклонений наблюдаемых точек от поверхности. Поэтому общая процедура иногда называется оценивание по методу наименьших квадратов.

Реальный вычисления при решении регрессионных задач можно легко выразить в терминах операций с матрицами. Предположим, что существует n наблюдаемых значений Y и n соответствующих значений для каждой из k различных переменных X. Пусть Yi, Xik и ei представляют i-ое наблюдаемое значение переменной Y, i-ые наблюдаемые значения переменных X, и i-ое неизвестное остаточное значение соответственно. Используя эти выражения, получаем, что

Модель множественной регрессии в терминах матриц можно представить как

Y = Xb + e

где b - вектор-столбец с 1 (для свободного члена) + k неизвестных регрессионных коэффициентов. Вспомним, что задача множественной регрессии заключается в минимизации суммы квадратов остатков. Регрессионные коэффициенты, удовлетворяющие этому критерию, можно найти, решив несколько нормальных уравнений

X'Xb = X' Y

Если переменные X являются независимыми (то есть, они являются неизбыточными, и матрица X'X имеет полный ранг), то существует единственное решение нормальных уравнений. Умножение обоих сторон матричной формулы на обратную матрицу к X'X дает

(X'X)-1X'Xb = (X'X)-1X' Y

или

b = (X'X)-1X' Y

Этот последний результат является одновременно простым и общим. Благодаря его простоте, можно выразить решение регрессионного уравнения в терминах только 2 матриц (X и Y) и 3 основных матричных операций: (1) транспонирование матрицы, (2) умножение матриц и (3) обращение матрицы A:

A-1AA = A

Математикам и статистикам потребовалось много времени, чтобы найти подходящий метод решения задачи регрессии.

Относительно общности модели множественной регрессии можно отметить только несколько ограничений: (1) эту модель можно использовать только для анализа одной зависимой переменной, (2) невозможно предложить метод нахождения регрессионных коэффициентов, если переменные X не являются линейной независимыми (поскольку в противном случае обратная матрица X'X не существует). Эти ограничения, однако, можно преодолеть, построив на основе модели множественной регрессии общую линейную модель.