Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Тервер ННГУ ФнФ Подчищаева.docx
Скачиваний:
21
Добавлен:
27.03.2015
Размер:
512.87 Кб
Скачать

Экзаменационный билет № 1

Закон больших чисел в теории вероятностей утверждает, что эмпирическое среднее (среднее арифметическое) конечной выборки из фиксированного распределения близко к теоретическому среднему (математическому ожиданию) этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти наверняка.

Лемма Маркова гласит [6]: если случайная величина Х не принимает отрицательных значений, то для любого положительного числа α справедливо следующее неравенство:                                       Р (Х > α) ≤ М (х) / α,                                                (13) где М (х) – математическое ожидание, то есть среднее значение случайной величины;          Х – любая случайная величина. Неравенство Чебышева имеет вид:                                  Р(|х - х| > ε) ≤ σ²/ε².                                                       (14) Оно позволяет находить верхнюю границу вероятности того, что случайная величина Х отклонится в обе стороны от своего среднего значения на величину больше ε. Эта вероятность равна или меньше (как максимум равна, не больше), чем  σ²/ε²,  где  σ²  -  дисперсия, исчисляемая по формуле:                                                           σ² = Σ  (х – х)² / n.                                                          (15) Если нас интересует вероятность отклонения только в одну сторону, например, в большую, то вышеприведенное неравенство Чебышева надо было бы записать так:                         Р ((х – х) > ε) ≤ σ² / (ε²*2).    

Д о к а з а т ь е л ь с т в о.

         Проведем доказательство для дискретной случайной величины способом, получившим название метода урезания .

         Пусть | x1|, | x2 |, ..., | xn | - есть упорядоченная совокупность всех значений случайной величины x , с соответствующими вероятностными

p= P{| x | = | x| }, причем å pi = 1.

         Не нарушая общности доказательства, можно допустить, что абсолютные значения случайной величины x расположены в порядке убывания. Выберем произвольное e >0 и предположим, что первые r значений совокупности не меньше e (r £ n) . Запишем следующее неравенство:

| x1 | p+ | x2 | p2 + ... + | xr | pr £ | x| p1 + ... + | xr | pr + ... + | x| pn = M | x | .

Следовательно, 

Заменяя в левой части последнего неравенства значение |xi| числом e , получим усиленное неравенство:

e × pi £ M | x | или .

Левая часть выражает вероятность того, что модуль случайной величины принимает значение, не меньшее e , т.е.

                                                                        . n

Основные задачи теории выборки

При применении выборочного наблюдения возникают три основные задачи:

• определение объема выборки, необходимого для получения требуемой точности результатовс заданной вероятностью;

• определение возможного предела ошибки репрезентативности, гарантированного с заданнойвероятностью, и сравнение его с величиной допустимой погрешности.

• определение вероятности того, что Ошибка выборки не превысит допустимой погрешности.

Все эти задачи решаются на основе теоремы Чебышева, согласно которой Р {[ х - ? | < ε } ≥ 1 -h, когда п - достаточно большое число; ε и h — сколь угодно малые положительные числа.

Экзаменационный билет № 2

Неравенство Чебышева

Нера́венство Чебышёва в теории вероятностей утверждает, что случайная величина в основном принимает значения близкие к своему среднему. Более точно, оно даёт оценку вероятности, что случайная величина примет значение далёкое от своего среднего. Неравенство Чебышёва является следствием неравенства Маркова.

Пусть случайная величина  определена на вероятностном пространстве , и еёматематическое ожидание  и дисперсия  конечны. Тогда

,

где .

Если , где  - стандартное отклонение и , то получаем

.

В частности, случайная величина с конечной дисперсией отклоняется от среднего больше, чем на стандартных отклонения с вероятностью меньше . Она отклоняется от среднего на  стандартных отклонения с вероятностью меньше .

Проблемы статистических выводов традиционно делятся на проблемы оценивания и проверку гипотез. Главное различие между этими двумя проблемами состоит в том, что при оценивании мы должны определить величину параметра или нескольких параметров. В то время как при проверке гипотез мы должны решить: принять или отвергнуть специфическую величину (или ряд специфических величин) параметра или нескольких параметров.

В общем виде задача оценки параметров формулируется следующим образом.

Пусть распределение признака Х - генеральной совокупности - задается функцией вероятности f(x, θ) = P(X=xi) для дискретной случайной величины или плотностью вероятностей для непрерывной случайной величины, которая содержит неизвестный параметр θ.

Для вычисления параметра θ используют выборку x1x2, ..., xn, каждая из которых имеет один и тот же закон распределения, что и признак Х.

Оценкой θn параметра θ называют всякую функцию результатов наблюдений (иначе - статистику), с помощью которой делают вывод о значении параметра θ:

θn = θn(x1x2, ..., xn).

Так как x1x2, ..., xn - случайные величины, то и оценка θn является случайной величиной, которая зависит от закона распределения и объема выборки n. Оцениваемый параметр θ является постоянной величиной.

Всегда существует множество функций от результатов наблюдений x1x2, ...xn, которые можно предложить в качестве оценки параметра θ. Например, для математического ожидания в качестве оценки θn по выборке можно взять среднюю арифметическую результатов наблюдений , моду M0, медиану Me и т. д.

Какими свойствами должна обладать оценка θn?

Так как θn - случайная величина, то невозможно предсказать индивидуальное значение оценки в данном частном случае. Поэтому о качестве оценки следует судить не по ее индивидуальным значениям, а по распределению ее значений при достаточно большом числе испытаний, т. е. по выборочному распределению оценки.