Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Лекции - Лекции по теории вероятностей и математической статистике - файл 1.doc


Лекции - Лекции по теории вероятностей и математической статистике
скачать (3589.5 kb.)

Доступные файлы (1):

1.doc3590kb.30.11.2011 08:36скачать

1.doc

1   2   3   4   5   6
IV: нашли точечную несмещённую оценку дисперсии случайной величины X, имеющей дисперсию:

DXs2(xk)2.

^ V. ГРУППИРОВКА НАБЛЮДЕНИЙ

Если объём выборки очень велик, то обрабатывать весь массив собранных данных бывает иногда затруднительно. С целью облегчить вычислительную работу в таких случаях производят так называемую группировку наблюдений. Она бывает также необходима для некоторых статистических процедур.

Представим выборку (x1, x2,  , xn) в виде вариационного ряда: y1y2
yn. Величина yny1 называется размахом выборки. Разобьём отрезок [y1, yn] на N равных частей длины .

Поскольку неизбежно округление данных, следует договориться о концах интервалов: разбиваем весь отрезок [y1, yn] на отрезки

k[xk, xk),

где xk – середина k-ого полузакрытого интервала. При таком разбиении последний интервал берём в виде

N[xN, xN].

Обозначим через mk число наблюдений, попавших в k-й интервал k. Числа  x1x2xN называют интервальным вариационным рядом, mk – приписанные этим точкам частоты.

В принципе, можно строить интервальный вариационный ряд, производя, если это нужно, разбиение и на неравные интервалы.

Вся дальнейшая работа (например, построение эмпирической функции распределения, оценки и т. д.) осуществляется уже с интервальным вариационным рядом. При этом нужно не забывать, что группировка вносит в статистические вычисления дополнительную ошибку – ошибку на группировку.

Число интервалов N выбирают так, чтобы частоты mk были достаточно велики, а само число N не слишком велико.

Разбиение на неравные интервалы производят в том случае, если на оси x есть области очень бедные попавшими туда наблюдениями.

^ VI. ОЦЕНКА ПЛОТНОСТИ ВЕРОЯТНОСТИ

Пусть X – непрерывная случайная величина с плотностью вероятности p(x) (рис. 4). Требуется найти эту плотность, хотя бы приближённо, в точке x.




Пусть  – произвольный достаточно малый интервал с центром в точке x.

Очевидно, если интервал  достаточно мал, а x – точка непрерывности плотности p(x), то

P{X}p(x)dxp(x).

Здесь буквой  мы обозначили и интервал как множество точек, и его длину.

Отсюда:

p(x)P{X},                    ()

причём ошибка этого приближения тем меньше, чем меньше .

Стоящую в () вероятность P{X} мы умеем приближённо оценивать частотой события {X}: P{X}, где m – число наблюдений в выборке, попавших в интервал . Ошибка этого приближения в среднем тем меньше, чем больше n и m, а для того, чтобы m было достаточно велико, нужно, чтобы интервал  был не слишком мал (иначе вероятность попасть в него при наблюдениях будет мала).

Итак:

p(x),

и процедура оценки плотности выглядит следующим образом: производим группировку наблюдений и по интервальному вариационному ряду находим оценку плотности p(x) в точках xk:

p(xk).

Графически можно отложить ординаты длины в абсциссах xk. Далее появляются две возможности: можно либо соединить полученные точки ломаной линией – получим полигон частот (рис. 5), либо провести через них горизонтальные отрезки – получим гистограмму (рис. 6).


Рис. 5. Полигон частот.

 y1x1      x2                      xnynx



 y1x1      x2                      xnynx






Рис. 6. Гистограмма.



Полигон и гистограмма и дают приближение для плотности p(x). Закон больших чисел Бернулли и общеизвестные теоремы математического анализа позволяют утверждать, что в точках непрерывности плотности p(x) отклонения от неё гистограммы и полигона будут как угодно малы со сколь угодно большой вероятностью при достаточно больших n и N и достаточно малом . Нужно помнить, что, с одной стороны,  нужно делать малым, чтобы уменьшить ошибку от замены интеграла площадью ступеньки, а с другой стороны, нельзя взять  слишком малым, чтобы не увеличить вероятностную ошибку от замены вероятности на относительную частоту.

^ VII. ИНТЕРВАЛЬНОЕ ОЦЕНИВАЕИЕ

Пусть XF(x, ), причём вид функции распределения F(x, ) известен, а параметр  неизвестен (считаем его одномерным). Требуется по выборке указать такой интервал [, ], который с заданной вероятностью  накрывает неизвестный параметр :

P{}.

Сам интервал [, ] называется доверительным, а  – доверительной вероятностью. Концы интервала – функции от выборки:

(x1, x2,  , xn), (x1, x2,  , xn)

и являются случайными величинами. Желательно иметь  близким к единице, а интервал – поменьше. Однако увеличивая , мы будем получать всё более широкие интервалы и тем самым всё менее информативные интервалы, всё менее интересные. Желательным свойством можно считать условие: 0, тог­да при достаточно большом числе наблюдений можно как угодно точно локализовать параметр .

В качестве  обычно берут числа 0,99, 0,95, 0,9. Выбор доверительной вероятности зависит от практических последствий в случае, когда доверительный интервал не накроет . При 0,9 следует ожидать, что в среднем мы будем промахиваться в десятой части всех применений данного доверительного интервала. Если это не страшно, то можно брать 0,9. Если же нас в этих случаях ждут большие материальные потери или это ведёт к опасностям для человеческой жизни, то такая доверительная вероятность недопустимо мала.

Легко строить доверительный интервал для , если мы имеем для параметра точечную оценку (x1, x2,  , xn) и хотя бы приближённо знаем закон её распределения. Именно в этом случае по закону распределения , задавая , мы можем находить такое , чтобы

^ P{||}.

Иногда  называют надёжностью оценки, а  – её точностью. Здесь мож­но переписать неравенство под знаком вероятности в следующем виде:

P{},

и искомый доверительный интервал имеет вид [, ] и длину 2.

Разберём несколько задач на построение доверительных интервалов.

^ 1. Приближённый доверительный интервал для вероятности события.

Пусть имеется событие A и для его вероятности P(A)p мы хотим построить доверительный интервал, сделав n опытов. Допустим, что в этих опытах событие A наступило m раз.

По интегральной теореме Муавра-Лапласа:

P{ab}dy.

Возьмём a, b:

P{||}dy(), 0.

Стоящее под знаком вероятности неравенство заменим равносильным:

P{m22mnpn2p22npq}(), 0,

или, заменяя q на 1p:

P{p2(n22n)p(2mn2n)m20}(), 0.

Кривая yp2(n22n)p(2mn2n)m2 как функция p является параболой.

Пусть её корни p1, p2, причём p1p2, т. е.

P{p1pp2}(), 0

и теперь мы можем указать процедуру построения доверительного интервала для p:

a) Задаём доверительную вероятность .

b) По  находим  из уравнения (); корень уравнения легко определяется с помощью таблицы функции Лапласа.

c) Решаем квадратное уравнение p2(n22n)p(2mn2n)m20, находим его корни p1, p2, p1p2.

d) Искомый приближённый доверительный интервал имеет вид: p1p2.

Точность этого интервала зависит от того, достаточно ли мала ошибка при использовании теоремы Муавра-Лапласа, можно ли практически считать, что

mN(np, ).

2. Доверительный интервал для параметра a нормального закона при известном .

Пусть XN(a, ), причём  известно.

Получаем выборку (x1, x2,  , xn). Среднее выборочное: N(a, ). Его нормированное уклонение:

N(0, 1).

Поэтому:

P(), 0.

Заменим неравенство под знаком вероятности равносильным, разрешив его относительно a:

P{a}()

и можно сформулировать процедуру построения доверительного интервала для параметра a:

a) Задаём доверительную вероятность .

b) По  с помощью таблицы функции Лапласа находим  из уравнения ().

  1. Искомый доверительный интервал имеет вид , ,

Отметим, что длина доверительного интервала сколь угодно мала при больших n: 0.

3. Доверительные интервалы для параметров нормального закона.

Пусть XN(a, ) и оба параметра неизвестны. Воспользуемся следующей теоремой о выборочном среднем и выборочной дисперсии S2 для выборки из нормального закона:

a) N(a, );

b) nS2;

c) S2 – независимые случайные величины;

d) (a)Tn1.

Пункт a) этой теоремы очевиден, пункт d) следует из трёх предыдущих.

Действительно,

N(0, 1); n1

и из независимости и S следует, что отношение : рас­пределено по закону Стьюдента с (n1) степенями свободы.

Пункты b) и c) примем без доказательства. Ограничимся только следующими замечаниями.

В выражении



слагаемые – квадраты случайных величин , распределённых по нормальному закону; если бы они были независимыми, то, как мы знаем, сумма была бы распределена по закону n2; однако они связаны линейной зависимостью:

0.

Оказывается, это влияет лишь на число степеней свободы у 2, понижая его на единицу. Можно вместо величин (x1, x2,  , xn) ввести с помощью линейного преобразования такие новые величины, которые остаются независимыми и нормальными, причем и ^ S2 выражаются через различные новые переменные. Это и обеспечивает независимость. К тому же S2 выражается через квадраты ровно (n1) таких новых величин, что и приводит к . Осуществление этой программы мы здесь опустим.

Теперь построить доверительный интервал для a уже нетрудно:

P{|a|}2pTn1(t)dt, 0,

или

P{SaS}2pTn1(t)dt.

Строим доверительный интервал так:

a) Задаём .

b) По  из таблицы распределения Стьюдента находим значение  из урав­нения pTn1(t)dt.

c) Нужный интервал имеет вид: S, S.

Теорема о выборочном среднем позволяет построить доверительные интервалы также для 2 и . Действительно, так как nS2, то для любых x1, x2, таких, что 0x1x2:

P{x1nS2x2}(x)dx.

Перепишем неравенство под знаком вероятности, решив его относительно 2:

P{2}(x)dx.


O

x2

x1

x

(x)

Рис. 7.





Обычно выбирают x1, и x2 так, чтобы заштрихованные на рисунке площади были равны. Если мы хотим построить интервал с доверительной вероятностью , то величина каждой из этих площадей, очевидно, равна .

Процедура построения интервала:

a) Задаём .

b) Находим x1, и x2 по таблицам 2-распределения из уравнений:

(x)dx, (x)dx.

c) Вычисляем , что и решает нашу задачу.

Очевидно, для параметра  доверительный интервал выглядит следующим образом:

.

^ VII. ПРОВЕРКА СТАТИСТИЧЕСКИХ ГИПОТЕЗ

Любое предположение о случайной величине X, законе её распределения, параметрах, числовых характеристиках и т. п. назовём статистической гипотезой. Решение принять или отвергнуть гипотезу H будем принимать по выборке. Всё выборочное пространство  распадается, таким образом, на два множества H и , H. При попадании выборочной точки в H гипотеза H отвергается, при попадании в гипотеза ^ H принимается. Множество H называется критической областью для данной гипотезы H. Чтобы определить процедуру проверки гипотезы H, достаточно задать критическую область H. При такой договорённости мы можем совершить ошибки двух родов: ошибка первого рода состоит в отвержении верной гипотезы, ошибка второго рода состоит в принятии неверной гипотезы. Конкретные примеры показывают, что часто эти ошибки имеют весьма различный характер и значительно отличаются по своим конкретным последствиям. Иногда одна из ошибок бывает заметно более опасной, чем другая, и гипотезу H обычно формулируют так, чтобы ошибка первого рода была более опасной, и мы будем стремиться контролировать прежде всего её. Чтобы переставить ошибки местами, достаточно проверять вместо H гипотезу .

Сужая критическую область, мы уменьшаем вероятность ошибки первого рода, но при этом, как правило, возрастает вероятность ошибки второго рода, и наоборот. Чтобы сделать вероятность ошибки первого рода равной нулю, достаточно взять H, но при этом мы будем принимать и все неверные гипотезы; если взять H, то вероятность ошибки второго рода будет равна нулю, но при этом мы обязательно будем отвергать и все верные гипотезы. Уменьшая одну ошибку, мы расплачиваемся увеличением другой.

Во всей описанной схеме (её авторами являются Ю. Нейман и Д. Пирсон) ничего пока не говорилось о том, как гарантировать принятие истинной и отвержение ложной гипотезы. Основываясь на случайной выборке, мы не можем с абсолютной надёжностью (например, почти наверное) давать такую гарантию (исключение составляют лишь вырожденные случаи), а следовательно, не берёмся доказывать истинность или ложность гипотезы. Мы лишь проверяем, кажутся ли экспериментальные данные согласующимися с гипотезой, или, видимо, ей противоречат. Удовольствуемся следующим: будет хорошо, если отвергать верную гипотезу (т.е. совершать ошибку первого рода) и принимать ложную гипотезу (т.е. совершать ошибку второго рода) мы будем достаточно редко, – с заданной, достаточно малой или контролируемой удовлетворительной вероятностью.

Обозначим  и  вероятности ошибок первого и второго рода:

P({(x1, x2,  , xn)H|H}, P({(x1, x2,  , xn)|}.

Отсюда ясно, что мы можем контролировать , если знаем, при условии справедливости гипотезы H, закон распределения случайной величины X, и можем контролировать , если знаем этот закон при условии справедливости гипотезы . ^ Гипотезу, при которой закон распределения случайной величины X однозначно определяется, называют нулевой гипотезой. И здесь возникает существенная трудность: если гипотеза H нулевая, то обычно уже ненулевая и если H не верна, то мы, как правило, не знаем, что имеет место в действительности, а поэтому и не можем контролировать . Выход может состоять в том, что мы вычисляем  для наиболее интересных, или наиболее опасных, или наиболее вероятных альтернатив.

Чаще всего критическая область строится с помощью некоторой функции от выборки K(x1, x2,  , xn), называемой критерием. Ниже в наших примерах критическая зона определяется по критерию из неравенства K(x1, x2,  , xn)C, где Cпороговое значение критерия, и тогда вероятности ошибок выглядят так:

P(K(x1, x2,  , xn)C|H}, P(K(x1, x2,  , xn)C|}.

Из этих формул видно, что мы можем контролировать  и , если будем знать закон распределения критерия ^ K как случайной величины, хотя бы приближённо при условии справедливости гипотезы H и при условии справедливости гипотезы .

Для данной гипотезы ^ H обычно удаётся подобрать такой критерий K, что закон распределения его при истинности гипотезы H известен, и  можно контролировать. Однако, при истинности мы, вообще говоря, не можем оценить , но утешением оказывается то обстоятельство, что для хорошо подобранных критериев при n вероятность 0, и хотя мы не можем её вычислить, всё-таки остается уверенность, что при достаточно большом объёме выборки ошибка второго рода будет как угодно мала. Известная опасность кроется в том, что мы, как правило, не можем сказать, достаточно ли большим является доступный нам объём выборки.

Максимально допустимую величину вероятности ошибки первого рода  называют уровнем значимости критерия; задав , находят порог C из условия:

P(KC|H}.

Обычные значения уровня значимости для практики: 0,01; 0,05; 0,1. (В дискретном случае, правда, в качестве значений  могут быть не любые числа, и это надо учитывать, иначе только что написанное уравнение окажется неразре­шимым). Уравнение же решается по таблицам точного или приближённого закона распределения критерия K.

Например, построив критическую область для уровня значимости 0,05, мы должны считаться с тем, что в сотне применений критерия мы в среднем пять раз отвергнем гипотезу, которая на самом деле верна. Если фактические последствия этих ошибок нас не пугают, то можем пользоваться данной критической областью. Если же они представляются неприемлемыми, то можем уменьшить , но при этом увеличится , и мы должны взвесить: приемлемы ли для нас последствия ошибок второго рода. Если нет, то остаётся либо отказаться от изучаемого критерия, либо увеличить число наблюдений: для разумно выбранного критерия при этом  и  уменьшаются.

Критерий должен обладать свойством реагировать на правильность или ошибочность гипотезы: он должен иметь тенденцию быть малым, если гипотеза верна, и быть большим, если она ошибочна.

Ясно, что если критерий ведёт себя наоборот, т. е. принимает малые значения, если гипотеза ошибочна, и большая, если она верна, то это тоже нас устроит; нужно лишь составлять критическую область из малых значений критерия.

Рассмотрим три важнейших критерия математической статистики: Колмогорова, Пирсона, Стьюдента.

Критерий Колмогорова

Пусть ^ X – непрерывная случайная величина. Проверяется гипотеза H: некоторая функция F(x) является ни чем иным, как функцией распределения случайной величины X.

А. Н. Колмогоров доказал следующую теорему:

 если F(x) – истинная функция распределения, то при С0:

           P{|Fn(x)F(x)|C}2(1)k1e2k2C2.

Стоящая справа сумма – одна из семейства тета-функций – табулирована и не представляет трудностей при работе.

Считаем, что n достаточно велико, чтобы было справедливо приближённое равенство:

P{|Fn(x)F(x)|C}2(1)k1e2k2C2.

Теорема Колмогорова подсказывает нам выбор критерия для проверки гипотезы H:

K(x1, x2,  , xn)|Fn(x)F(x)|.

Если H верна, то эмпирическая функция Fn(x) близка к истинной функции распределения F(x): Fn(x)F(x), и критерий имеет тенденцию быть малым. Если H не верна, то истинная функция распределения в какой-то области оси Ox отличается от Fn(x) на конечную величину, а поскольку Fn(x) близка к истинной функции распределения, то в этой области отклонение |Fn(x)F(x)| конечно, а множитель делает критерий большим. Кроме того, по теореме Колмогорова мы приближённо знаем закон распределения.

Сформулируем процедуру проверки гипотезы H:

1   2   3   4   5   6



Скачать файл (3589.5 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации