- •1.Статистика как наука и отрасль практической деятельности.
- •2.Статистическая деятельность в Российской Федерации.
- •3.Основные категории статистики.
- •4.Сущность и виды статистического наблюдения.
- •5.План стат набл
- •6.Точность статистического наблюдения.
- •7.Задачи сводки и её содержание.
- •8.Виды статистической группировки.
- •9.Принципы построения статистических группировок и классификаций.
- •10.Понятие стат таблицы. Элементы стат таблицы.
- •11.Виды стат таблиц
- •12.Основыне правила построения и анализа стат таблиц
- •13.Понятие стат графика. Элементы стат графика
- •14.Классификация основные видов статистических графиков
- •15.Диаграммы сравнения
- •16.Структурные диаграммы
- •17.Диаграммы динамики
- •18.Статистические карты
- •19. Понятие, формы выражения и виды статистических показателей.
- •20. Абсолютные статистические показатели.
- •21.(1) Относительные статистические показатели
- •22. Сущность и значение средних показателей
- •23. Средняя арифметическая и ее свойства
- •24. Основные показатели вариации
- •25. Виды дисперсий и правило их сложения
- •26. Структурные характеристики вариационного ряда распределения
- •27. Выборочное наблюдение как важнейший источник статистической инф-ии
- •28. Основные способы формирования выборочной совокупности
- •29. Собственно-случайная (простая случайная) выборка
- •30. Механическая (систематическая) выборка
- •31. Типическая (стратифицированная) выборка
- •32. Серийная выборка
- •33. Понятие и классификация рядов динамики
- •35. Показатели изменения уровней ряда динамики
- •36. Методы выравнивания рядов динамики
- •37. Сезонные колебания уровней рядов динамики
- •38. Понятие причинности, регрессии и корреляции
- •39. Основные задачи и предпосылки применения корреляционно-регрессионного анализа
- •40. Парная регрессия на основе метода наименьших квадратов
- •41. Множественная (многофакторная) регрессия
- •43. Методы изучения связи качественных признаков
- •44. Ранговые коэффициенты связи
- •45. Понятие и классификация экономических индексов
- •46. Индивидуальные и общие индексы
- •47. Агрегатный индекс как исходная форма индекса
- •49. Свойства индексов Ласпейреса и Пааше. Индекс Фишера
- •50. Население как объект статистического изучения. Источники данных о населении
- •51. Изучение численности населения и его размещения по территории страны
- •52. Изучение естественного движения населения
- •53. Показатели социальной характеристики населения
- •54. Содержание и задачи статистики рынка труда
- •55. Статистика занятости и безработицы
- •56. Классификация населения по статусу в занятости
- •57. Определение численности и состава занятых лиц
- •58. Показатели движения рабочей силы
- •59. Рабочее время и его использование
- •60. Состав фонда заработной платы
39. Основные задачи и предпосылки применения корреляционно-регрессионного анализа
Задачи корреляционно-регрессионного анализа:
1) формулировки вида модели, исходя из соответствующей теории связи между переменными;
2) из всех факторов, влияющих на результативный признак, необходимо выделить наиболее существенно влияющие факторы;
3) парная регрессия достаточна, если имеется доминирующий фактор, который и используется в качестве объясняющей переменной. Поэтому необходимо знать, какие остальные факторы предполагаются неизменными, так как в дальнейшем анализе их придется учесть в модели и от простой регрессии перейти к множественной;
4) исследовать, как изменение одного признака меняет вариацию другого.
Предпосылки корреляционно-регрессионного анализа:
1) уравнение парной регрессии характеризует связь между двумя переменными, которая проявляется как некоторая закономерность лишь в среднем в целом по совокупности наблюдений;
2) в уравнении регрессии корреляционная связь признаков представляется в виде функциональной связи, выраженной соответствующей математической функцией;
3) случайная величина Е включает влияние неучтенных в модели факторов, случайных ошибок и особенностей измерения;
4) определенному значению признака-аргумента отвечает некоторое распределение признака функции.
Недостатки анализа:
1) невключение ряда объясняющих переменных: a). целенаправленный отказ от других факторов;
b). невозможность определения, измерения определенных величин (психологические факторы);
c). недостаточный профессионализм исследователя моделируемого;
2) агрегирование переменных (в результате агрегирования теряется часть информации);
3) неправильное определение структуры модели;
4) использование временной информации (изменив временной интервал, можно получить другие результаты регрессии);
5) ошибки спецификации (неправильный выбор той или иной математической функции);
6) ошибки выборки. Ошибки выборки возникают и в силу неоднородности данных в исходной статистической совокупности, что бывает при изучении экономических процессов;
7) ошибки измерения представляют наибольшую опасность: сводят на нет все усилия по количественной оценке связи между признаками.
40. Парная регрессия на основе метода наименьших квадратов
Парная регрессия - регрессия между двумя переменными у и х, т.е. модель вида: у = f (x)+E, где у- зависимая переменная (результативный признак); x - независимая, обьясняющая переменная (признак-фактор); E- возмущение, или стохастическая переменная, включающая влияние неучтенных факторов в модели. В случае парной линейной зависимости строится регрессионная модель по уравнению линейной регрессии. - метод оценивания параметров линейной регрессии, минимизирующий сумму квадратов отклонений наблюдений зависимой переменной от искомой линейной функции
где уi- статические значения зависимой переменной; f (х) - теоретические значения зависимой переменной, рассчитанные с помощью уравнения регрессии.
Параметр b показывает среднее изменение результата у с изменением фактора х на единицу. Параметр а = у, когда х = 0. Если х не может быть равен 0, то а не имеет экономического смысла. Интерпретировать можно только знак при а: если а > 0. то относительное изменение результата происходит медленнее, чем изменение фактора, т. е. вариация результата меньше вариации фактора: V < V. и наоборот.
То есть МНК заключается в том, чтобы определить а и а, так, чтобы сумма квадратов разностей фактических у и у. вычисленных по этим значениям a0 и а1 была минимальной:
Рассматривая эту сумму как функцию a0 и a1 дифференцируем ее по этим параметрам и приравниваем производные к нулю, получаем следующие равенства:
n - число единиц совокупности (заданны параметров значений x и у). Это система «нормальных» уравнений МНК для линейной функции (yx)
Расчет параметров уравнения линейной регрессии:
, a = y – bx