- •Предмет и система правовой статистики.
- •Особенности юридической статистики. Методологические особенности правовой статистики и ее связь с другими науками и учебными дисциплинами
- •Современная организация правовой статистики в Российской Федерации.
- •Научно-практическое значение материалов правовой статистики.
- •История уголовно-правовой статистики советского периода.
- •Понятие статистического наблюдения, этапы его проведения.
- •Организационные вопросы статистического наблюдения.
- •Ошибки регистрации и репрезентативности.
- •Единый учет преступлений и документы первичного учета в правоохранительных органах.
- •Выборочный метод. Генеральная и выборочная совокупность. Типы выборок.
- •Табличный и графический методы представления данных статистики.
- •Существуют правила построения таблиц:
- •Статистическое распределение выборки. Эмпирическая функция распределения. Свойства эмпирической функции распределения.
- •Определения
- •Свойства эмпирической функции распределения Эмпирическое распределение для фиксированного
- •Числовые характеристики статистического распределения (выборочные среднее, дисперсия, среднеквадратичное отклонение, мода, медиана, моменты, асимметрия и эксцесс, квантили).
- •Понятие дисперсии
- •Виды дисперсии
- •Правило сложения дисперсии в статистике
- •Свойства дисперсии
- •Основные сведения
- •[Править]Правило трёх сигм
- •[Править]Интерпретация величины среднеквадратического отклонения
- •[Править]Практическое применение
- •[Править]Климат
- •[Править]Спорт
- •[Править]Технический анализ
- •[Править]Пример использования
- •[Править]Определение
- •[Править]Замечания
- •[Править]Дециль
- •[Править]Перцентиль
- •[Править]Квантили стандартного нормального распределения
- •[Править]Определение
- •[Править]Замечания
- •[Править]Таблица квантилей
- •Оценка параметра и свойства оценок. Статистические оценки параметров распределения
- •Точечное оценивание параметров распределения.
- •Интервальное оценивание параметров распределения. Интервальное оценивание среднего квадратичного отклонения нормального распределения.
- •Статистическая гипотеза. Постановка задачи проверки статистических гипотез. Понятие статистической гипотезы
- •Ошибки первого и второго рода при проверке гипотез.
- •[Править]Определения
- •[Править]о смысле ошибок первого и второго рода
- •[Править]Вероятности ошибок (уровень значимости и мощность)
- •20. Проверка гипотез о законе распределения. Критерий согласия «Хи–квадрат» Пирсона
- •[Править]Статистика критерия
- •[Править]Правило критерия
- •Нормальный закон распределения и его основные характеристики.
- •[Править]Свойства
- •[Править]Моделирование нормальных случайных величин
- •[Править]Центральная предельная теорема
- •Статистические связи. Условное среднее. Причинная и функциональная связи. Статистическая связь
- •Парная корреляция. Уравнение регрессии. Линия регрессии.
- •[Править]Цели регрессионного анализа
- •[Править]Математическое определение регрессии
- •[Править]Метод наименьших квадратов (расчёт коэффициентов)
- •[Править]Интерпретация параметров регрессии
- •25. Корреляционный момент, коэффициент корреляции их свойства.
Парная корреляция. Уравнение регрессии. Линия регрессии.
Часто при проведении маркетингового исследования нас интересует связь между двумя метрическими переменными, как, например, в следующих ситуациях.
Насколько сильно связан объем продаж с затратами на рекламу?
Существует ли связь между долей рынка фирмы и численностью ее торгового персонала?
Связано ли восприятие качества товаров потребителями с их восприятием цены?
В таких ситуациях наиболее широко используемой статистикой является коэффициент парной Корреляции, (commercial units moment Correlation r), который характеризует степень тесноты связи между двумя метрическими (измеряемыми с помощью интервальной или относительной шкал) переменными, скажем, Х и Y. Этот коэффициент используют, чтобы определить, существует ли между переменными линейная зависимость. Он показывает степень, в которой вариация одной переменной X связана с вариацией другой переменной Y, т.е. меру зависимости между переменными Х и Y.
Коэффициент парной Корреляции, г (commercial units moment Correlation r)
Статистический показатель, характеризующий степень тесноты связи между двумя метрическими переменными.
Поскольку этот коэффициент первоначально предложил Карл Пирсон, его также называют коэффициентом Корреляции Пирсона. Кроме того, он известен как простой коэффициент Корреляции, линейный коэффициент Корреляции или просто коэффициент Корреляции.
В этих уравнениях X и Y обозначают выборочные средние, а — соответствующие стандартные отклонения; COV представляет собой ковариацию (covari-апсе) между Х и Y, т.е. меру зависимости Xи Y.
Ковариация может быть как положительной, так и отрицательной. Деление на SxS приводит к нормированному виду, так что коэффициент Корреляции г находится в пределах от -1 до +1. Обратите внимание, что коэффициент Корреляции никак не связан с единицами измерения, в которых выражены переменные.
Предположим, что исследователь хочет выяснить, зависит ли отношение респондента к местожительству от длительности его проживания в этом городе. Отношение выражают в 11- балльной шкале (1 — не нравится город, 11 — очень нравится город), а продолжительность проживания измеряют количеством лет, которые респондент прожил в этом городе.
В этом примере г = 0,9361, что близко к 1. Это означает, что отношение респондента к своему городу сильно зависит от времени проживания в нем. Более того, положительный знак г указывает на прямую связь (прямо пропорциональную): чем дольше респондент проживает в городе, тем больше он ему нравится, и наоборот.
Поскольку коэффициент Корреляции показывает меру, в которой вариация значений одной переменной зависит от вариации другой, можно выразить через разложение полной вариации.
Следовательно, г2 показывает, какая доля вариации одной переменной обусловлена вариацией другой. И г, и г2 являются симметричными показателями связи между переменными. Иначе говоря, корреляция между Х и Y та же, что и корреляция между Y и X. Корреляция не зависит от того, какая из переменных взята в качестве зависимой, а какая — в качестве независимой. Коэффициент Корреляции является мерой линейной зависимости, и он не предназначен для измерения силы связи в случае нелинейной зависимости. Таким образом, г = 0 просто означает отсутствие линейной зависимости между Х и Y. Это не означает, что Х и Y не взаимосвязаны. Между ними может существовать нелинейная зависимость, которую нельзя определить с помощью коэффициента Корреляции г.
Если коэффициент Корреляции вычисляют не для выборки, а для всей генеральной совокупности, то он обозначается греческой буквой р (ро). Коэффициент г — это оценка р. Обратите внимание, что расчет г предполагает, что X и Y- метрические переменные, кривые распределения которых имеют одинаковую форму. Если эти допущения не удовлетворяются, то значение г уменьшается и р получается недооцененным. В маркетинговых исследованиях данные, полученные с использованием относительной шкалы при небольшом количестве категорий, могут не быть строго интервальными.
Регрессио́нный (линейный) анализ — статистический метод исследования влияния одной или нескольких независимых переменных на зависимую переменную . Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения.