Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
MATAN.docx
Скачиваний:
3
Добавлен:
26.04.2019
Размер:
285.87 Кб
Скачать

19. Равномерный закон распределения случайных величин

 

По этому закону распределяются случайные составляющие погрешности измерений, обусловленные «сухим» трением, погрешности округления отчетов по шкале, погрешности квантования аналого-цифрового преобразователя.

Рисунок 2.7

d = 2a – энтропийная оценка неопределенности измерения.

Первый начальный момент равномерного ЗРСВ равен:

  ,                                                                                          

Первый центральный момент равен нулю:

,                                                               

,

При равномерной плотности вероятности:

,

второй центральный момент соответствует дисперсии и равен:

.                                         

При этом СКО можно определить по формуле:

.

 

Третий центральный момент и коэффициент асимметрии равны нулю:

kассим= .                                                                                                    

Четвертый центральный момент и эксцесс, соответственно:

                                                                        

20.Распределение Пуассона моделирует случайную величину, представляющую собой число событий, произошедших за фиксированное время, при условии, что данные события происходят с некоторой фиксированной средней интенсивностью и независимо друг от друга.

Распределение Пуассона играет ключевую роль в теории массового обслуживания.

Определение

Выберем фиксированное число и определим дискретное распределение, задаваемое следующей функцией вероятности:

,

где

обозначает факториал,

— основание натурального логарифма.

Тот факт, что случайная величина имеет распределение Пуассона с параметром , записывается: .

Моменты

Производящая функция моментов распределения Пуассона имеет вид:

,

откуда

,

.

Для факториальных моментов распределения справедлива общая формула:

,

где

А так как моменты и факториальные моменты линейным образом связаны, то часто для Пуассоновского распределения исследуются именно факториальные моменты, из которых при необходимости можно вывести и обычные моменты.

Свойства распределения Пуассона

Сумма независимых пуассоновских случайных величин также имеет распределение Пуассона. Пусть . Тогда

.

Пусть , и . Тогда условное распределение при условии, что , биномиально. Более точно:

.

25. Ковариа́ция (корреляционный момент) в теории вероятностей и математической статистике мера линейной зависимости двух случайных величин.

Определение

Пусть X,Y — две случайные величины, определённые на одном и том же вероятностном пространстве. Тогда их ковариация определяется следующим образом:

cov(X,Y) = E [(X – EX)(Y-EY)]

в предположении, что все математические ожидания E в правой части определены.

Св-ва. Если X,Y — независимые случайные величины, то:

cov(X,Y) = 0

Но обратное утверждение, вообще говоря, неверно: из отсутствия ковариации не следует независимость.

Ковариация случайной величины с собой равна дисперсии: cov(X,X) = D[X].

Ковариация симметрична:

cov(X,Y) = cov(Y,X).

В частности ковариация (в отличие от коэффициента корреляции) не инвариантна относительно смены масштаба, что не всегда удобно в приложениях.

Если α и β — числа, то

cov(X + α,Y + β) = cov(X,Y).

ковариция(Y;X) = коэффициент корреляции (Х;Y)* ско(X)*СКО(Y)

Линейный коэффициент корреляции

Для устранения недостатка ковариации был введён линейный коэффициент корреляции (или коэффициент корреляции Пирсона), который разработали Карл Пирсон, Фрэнсис Эджуорт и Рафаэль Уэлдон (англ.)русск. в 90-х годах XIX века. Коэффициент корреляции рассчитывается по формуле

Непараметрические показатели корреляции

Коэффициент ранговой корреляции Кендалла

Применяется для выявления взаимосвязи между количественными или качественными показателями, если их можно ранжировать. Значения показателя X выставляют в порядке возрастания и присваивают им ранги. Ранжируют значения показателя Y и рассчитывают коэффициент корреляции Кендалла:

где S = P − Q.

P — суммарное число наблюдений, следующих за текущими наблюдениями с большим значением рангов Y.

Q — суммарное число наблюдений, следующих за текущими наблюдениями с меньшим значением рангов Y. (равные ранги не учитываются!)

Коэффициент ранговой корреляции Спирмена

Каждому показателю X и Y присваивается ранг. На основе полученных рангов рассчитываются их разности d и вычисляется коэффициент корреляции Спирмена:

Коэффициент корреляции знаков Фехнера

Подсчитывается количество совпадений и несовпадений знаков отклонений значений показателей от их среднего значения.

C — число пар, у которых знаки отклонений значений от их средних совпадают.

H — число пар, у которых знаки отклонений значений от их средних не совпадают.

Коэффициент множественной ранговой корреляции (конкордации)

m — число групп, которые ранжируются.

n — число переменных.

Rij — ранг i-фактора у j-единицы.

Значимость:

Дисперсионная матрица - это квадратная таблица, характеризующая надежность, с которой определены неизвестные параметры. При этом диагональные элементы матрицы позволяют судить об ошибках в нахождении параметров, а недиагональные - о степени корреляционной связи между ними

Для приближенного вычисления дисперсионной матрицы в точке минимума 6 проводится операция квазилинеаризации

В зависимости от дисперсионной матрицы оценок выбирается критерий оптимальности уточняющего плана.

26.Числовые характеристики случайной точки В данной главе мы познакомились с рядом полных, исчерпывающих характеристик случайных величин – так называемых законов распределения. Такими характеристиками были:

для дискретной случайной величины

а) функция распределения;

б) ряд распределения (графически – многоугольник распределения);

для непрерывной случайной величины:

а) функция распределения;

б) плотность распределения (графически – кривая распределения).

Каждый закон распределения представляет собой некоторую функцию, и указание этой функции полностью описывает случайную величину с вероятностной точки зрения.

Однако во многих вопросах практики нет необходимости характеризовать случайную величину полностью, исчерпывающим образом. Зачастую достаточно бывает указать только отдельные числовые параметры, до некоторой степени характеризующие существенные черты распределения случайной величины; какое-либо число, характеризующее степень разбросанности этих значений относительно среднего, и т.д. Пользуясь такими характеристиками, мы хотим все существенные сведения относительно случайной величины, которыми мы располагаем, выразить наиболее компактно с помощью минимального числа числовых параметров. Такие характеристики, назначение которых – выразить в сжатой форме наиболее существенные особенности распределения, называют числовыми характеристиками случайной величины.

В теории вероятностей числовые характеристики и операции с ними играют огромную роль. С помощью числовых характеристик существенно удается решить задачу до конца, оставляя в стороне законы распределения и оперируя одними числовыми характеристиками. При этом весьма важную роль играет то обстоятельство, что когда в задаче фигурирует большое количество случайных величин, каждая из которых оказывает известное влияние на численный результат опыта, то закон распределения этого результата в значительной мере можно считать независимым от законов распределения отдельных случайных величин (возникает так называемый нормальный закон распределения). В этих случаях по существу задачи для исчерпывающего суждения о результирующем законе распределения не требуется знать законов распределения отдельных случайных величин, фигурирующих в задаче; достаточно знать лишь некоторые числовые характеристики этих величин.

В теории вероятностей и математической статистике применяется большое количество различных числовых характеристик, имеющих различное назначение и различные области применения. Из них в настоящем курсе мы введем только некоторые, наиболее часто применяемые.

27. Зако́н больши́х чи́сел в теории вероятностей утверждает, что эмпирическое среднее (среднее арифметическое) достаточно большой конечной выборки из фиксированного распределения близко к теоретическому среднему (математическому ожиданию) этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти всюду.

Всегда найдётся такое количество испытаний, при котором с любой заданной наперёд вероятностью относительная частота появления некоторого события будет сколь угодно мало отличаться от его вероятности.

Общий смысл закона больших чисел — совместное действие большого числа случайных факторов приводит к результату, почти не зависящему от случая.

На этом свойстве основаны методы оценки вероятности на основе анализа конечной выборки. Наглядным примером является прогноз результатов выборов на основе опроса выборки избирателей.

Слабый закон больших чисел

Пусть есть бесконечная последовательность (последовательное перечисление) одинаково распределённых и некоррелированных случайных величин определённых на одном вероятностном пространстве То есть их ковариация

Усиленный закон больших чисел

Пусть есть бесконечная последовательность независимых одинаково распределённых случайных величин определённых на одном вероятностном пространстве Пусть Обозначим Sn выборочное среднее первых n членов: Тогда почти наверное.

31. Теорема Чебышева. Если Х1, Х2, …, Хn- попарно независимые случайные величины, причем дисперсии их равномерно ограничены (не превышаю постоянного числа С), то, как бы мало не было положительное число e, вероятность неравенства

будет сколь угодно близка к единице, если число случайных величин достаточно велико.

Т.е. можно записать:

Часто бывает, что случайные величины имеют одно и то же математическое ожидание. В этом случае теорема Чебышева несколько упрощается:

Дробь, входящая в записанное выше выражение есть не что иное как среднее арифметическое возможных значений случайной величины.

Теорема утверждает, что хотя каждое отдельное значение случайной величины может достаточно сильно отличаться от своего математического ожидания, но среднее арифметическое этих значений будет неограниченно приближаться к среднему арифметическому математических ожиданий.

Отклоняясь от математического ожидания как в положительную так и в отрицательную сторону, от своего математического ожидания, в среднем арифметическом отклонения взаимно сокращаются.

Таким образом, величина среднего арифметического значений случайной величины уже теряет характер случайности.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]