- •Классическое определение вероятности.
- •2 Основные правила и формулы комбинаторики: перестановки, размещения, сочетания.
- •Выборки элементов с повторениями
- •3 Случайные события и алгебра событий. Непосредственное вычисление вероятностей
- •4 Основные теоремы теории вероятностей.
- •Случайные величины (дискретные и непрерывные). Закон распределения дискретной случайной величины.
- •Пространство элементарных событий
- •Алгебра событий
- •Вероятность
- •Определение случайной величины
- •Классификация
- •Методы описания
- •Функция распределения вероятностей случайной величины. Плотность распределения.
- •Законы равномерного и нормального распределений
- •Свойства
- •Моделирование нормальных случайных величин
- •Центральная предельная теорема
- •I b Законы равномерного распределений
- •II b Равномерный закон распределения.
- •Вероятность попадания в заданный интервал нормальной случайной величины
- •Числовые характеристики случайных величин.
- •10 Схема повторных испытаний. Формула Бернулли. Предельные теоремы в схеме Бернулли (Пуассона, Муавра-Лапласа).
- •Предмет и основные задачи математической статистики.
- •Классификация статистической информации.
- •Классификация статистических методов
- •Понятия “генеральная совокупность”, “выборочная совокупность” и “репрезентативная совокупность ”. Способы выбора из генеральной совокупности.
- •Статистическое распределение выборки. Эмпирическая функция распределения. Графическое изображение статистического распределения.
- •Числовые характеристики распределений: мода, медиана, среднее.
- •Числовые характеристики распределений: генеральная средняя и дисперсия; выборочная средняя и дисперсия.
- •1.2.Выборочная средняя.
- •1.3. Генеральная дисперсия.
- •1.4.Выборочная дисперсия.
- •Функциональная, статистическая и корреляционная зависимости. Выборочное уравнение регрессии. Отыскание параметров выборочного уравнения прямой линии среднеквадратичной регрессии.
- •Элементы теории корреляции. Коэффициент корреляции Пирсона.
- •9 Элементы теории корреляции. Коэффициент ранговой корреляции Спирмена.
- •В каких случаях можно обойтись без ранжирования
- •10 Точечные оценки параметров распределенияи методы их нахождения. Метод моментов.
- •4.1. Точечная оценка параметров распределения
- •Преимущества и недостатки метода
- •11 Точечные оценки параметров распределения и методы их нахождения. Понятие о методе наименьших квадратов. Метод наименьших квадратов (расчёт коэффициентов)
- •Интервальные оценки. Построение доверительного интервала для оценки математического ожидания при известной дисперсии.
линейно зависимы,
линейно независимы.
9 Элементы теории корреляции. Коэффициент ранговой корреляции Спирмена.
Коэффициент ранговой корреляции Спирмена используется в случаях, когда: - переменные имеют ранговую шкалу измерения; - распределение данных слишком отличается от нормального или вообще неизвестно; - выборки имеют небольшой объём (N < 30).
Интерпретация рангового коэффициента корреляции Спирмена не отличается от коэффициента Пирсона, однако его смысл несколько отличен. Чтобы понять различие этих методов и логически обосновать области их применения сравним их формулы.
Коэффициент корреляции Пирсона: Коэффициент корреляции Спирмена:
Как видим формулы значительно различаются. Сравним формулы
В формуле корреляции Пирсона используется среднее арифметическое и стандартное отклонение коррелируемых рядов, а в формуле Спирмена не используется. Таким образом, для получения адекватного результата по формуле Пирсона, необходимо, чтобы коррелируемые ряды были приближены к нормальному распределению (среднее и стандартное отклонение являются параметрами нормального распределения). Для формулы Спирмена это не актуально.
Элементом формулы Пирсона является стандартизация каждого ряда в z-шкалу.
Как видим, перевод переменных в Z-шкалу присутствует в формуле коэффициента корреляции Пирсона. Соответственно, для коэффициента Пирсона абсолютно не имеет значение масштаб данных: к примеру, мы можем коррелировать две переменных, одна из которых имеет мин. = 0 и макс. = 1, а вторая мин. = 100 и макс. = 1000. Как бы не различался размах диапазона значений, все они будут переведены в стандартные z-значения одинаковые по своему масштабу.
В коэффициенте Спирмена такой нормализации не происходит, поэтому
ОБЯЗАТЕЛЬНЫМ УСЛОВИЕМ ИСПОЛЬЗОВАНИЯ КОЭФФИЦИЕНТА СПИРМЕНА ЯВЛЯЕТСЯ РАВЕНСТВО РАЗМАХА ДВУХ ПЕРЕМЕННЫХ.
Перед использованием коэффициента Спирмена для рядов данных с различным размахом, необходимо обязательно их ранжировать. Ранжирование приводит к тому, что значения этих рядов приобретают одинаковый минимум = 1 (минимальный ранг) и максимум, равный количеству значений (максимальный, последний ранг = N, т.е. максимальному количеству случаев в выборке).
В каких случаях можно обойтись без ранжирования
Это случаи, когда данные имеют исходно ранговую шкалу. К примеру, тест ценностных ориентаций Рокича.
Также, это случаи, когда количество вариантов значений невелико и в выборке присутствуют фиксированные минимум и максимум. К примеру, в семантическом дифференциале минимум = 1, максимум = 7.
10 Точечные оценки параметров распределенияи методы их нахождения. Метод моментов.
4.1. Точечная оценка параметров распределения
Метод моментов
Метод предложен К. Пирсоном в 1894 г. Сущность метода:
выбирается столько эмпирических моментов, сколько требуется оценить неизвестных параметров распределения. Желательно применять моменты младших порядков, так как погрешности вычисления оценок резко возрастают с увеличением порядка момента;
вычисленные по ЭД оценки моментов приравниваются к теоретическим моментам;
параметры распределения определяются через моменты, и составляются уравнения, выражающие зависимость параметров от моментов, в результате получается система уравнений. Решение этой системы дает оценки параметров распределения генеральной совокупности.
Пусть — выборка из распределения , зависящего от параметра . Пусть есть функция , такая что g(X) интегрируема относительно меры , и
,
где — биекция. Тогда оценка
называется оценкой параметра методом моментов.
Преимущества и недостатки метода
В известной мере, при оценке параметров из известного семейства вероятностных распределений, этот метод упраздняется Фишеровским методом максимального правдоподобия, так как максимально правдоподобная оценка имеет большую вероятность оказаться ближе к истинному значению оцениваемой величины.
Тем не менее, в некоторых случаях, например, как выше в случае Гамма-распределения, использование метода максимального правдоподобия требует использования компьютеров в то время, как метод моментов может быть быстро и легко реализован вручную.
Оценки, полученные методом моментов, могут быть использованы как первое приближение для метода максимума правдоподобия. Дальнейшее улучшение оценок может быть получено с использованием метода Ньютона-Рафсона.
В некоторых случаях, редких при больших объемах данных и более частых при малом их количестве, оценки, даваемые методом моментов могут оказаться вне допустимой области. Такая проблема никогда не возникает в методе максимального правдоподобия. Также, оценки по методу моментов не обязательно оказываются достаточной статистикой, то есть, они иногда извлекают из данных не всю имеющуюся в них информацию.
11 Точечные оценки параметров распределения и методы их нахождения. Понятие о методе наименьших квадратов. Метод наименьших квадратов (расчёт коэффициентов)
На практике линия регрессии чаще всего ищется в виде линейной функции Y = b0 + b1X1 + b2X2 + ... + bNXN (линейная регрессия), наилучшим образом приближающей искомую кривую. Делается это с помощью метода наименьших квадратов, когда минимизируется сумма квадратов отклонений реально наблюдаемых Y от их оценок (имеются в виду оценки с помощью прямой линии, претендующей на то, чтобы представлять искомую регрессионную зависимость):
(M — объём выборки). Этот подход основан на том известном факте, что фигурирующая в приведённом выражении сумма принимает минимальное значение именно для того случая, когда Y = y(x1,x2,...xN).
Для решения задачи регрессионного анализа методом наименьших квадратов вводится понятие функции невязки:
Условие минимума функции невязки:
Полученная система является системой N + 1 линейных уравнений с N + 1 неизвестными b0...bN
Если представить свободные члены левой части уравнений матрицей
а коэффициенты при неизвестных в правой части матрицей
то получаем матричное уравнение: , которое легко решается методом Гаусса. Полученная матрица будет матрицей, содержащей коэффициенты уравнения линии регрессии: