Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Лекции - Лекции по теории вероятностей и математической статистике - файл 1.doc


Лекции - Лекции по теории вероятностей и математической статистике
скачать (3589.5 kb.)

Доступные файлы (1):

1.doc3590kb.30.11.2011 08:36скачать

1.doc

1   2   3   4   5   6

Двумерные случайные веЛИчины

^ Двумерной случайной величиной называется пара случайных величин, определённых на вероятностном пространстве (, , P()). Результат наблюдения двумерной случайной величины (X, Y) можно изобразить точкой (x, y) на плоскости. Закон распределения вероятностей между возможными значениями двумерной случайной величины даётся совместной функцией распределения:

F(x, y)P{Xx, Yy}

п
y
оказывающей, какая вероятностная масса лежит внутри заштрихованного квадранта (рис. 2).


x

y

x

O

Рис. 2.



Запятая в записи вероятности P{Xx, Yy} заменяет знак умножения между событиями {Xx} и {Yy}.

Выделим два простейших случая: непрерывный и дискретный.

Двумерная случайная величина (X, Y) называется непрерывной, если существует такая функция p(x, y), что

F(x, y)p(x, y)dxdy.

Очевидно, p(x, y)F(x, y).

Функция p(x, y) называется совместной плотностью вероятности; она играет роль поверхностной плотности распределения единичной вероятностной массы на двумерной плоскости. Вероятность того, что (X, Y) попадёт в область A на двумерной плоскости, вычисляется так:

P(A)p(x, y)dxdy,

и эта вероятность определена для таких событий A, для которых определён интеграл справа.

В дискретном случае возможные значения (X, Y) можно представить как упорядоченные пары чисел (xi, yj) и закон распределения давать в виде таблицы: pijP{Xxi, Yyj}.

Если известен закон распределения двумерной случайной величины (X, Y), то можно найти также законы распределения компонент X и Y.

В общем случае:

FX(x)P{Xx}P{Xx, Y}F(x, ).

Аналогично: FY(y)F(, y).

В непрерывном случае:

pX(x)FX(x)F(x, )dxp(x, y)dyp(x, y)dy.

Аналогично:

pY(y)p(x, y)dx.

В дискретном случае:

piP{Xxi}P{Xxi, Y}pij.

Аналогично:

qjP{Yyj}pij.

Обратная задача – восстановить закон распределения двумерной случайной величины по законам распределения компонент – решается для независимых компонент.

Естественно называть случайные величины X и Y независимыми, если события {Xx} и {Yy} независимы, т. е., если

F(x, y)P{Xx, Yy}P{Xx}P{Yy}FX(x)FY(y).

Если F(x, y) дифференцируема, то

p(x, y)F(x, y)FX(x)FY(y)FX(x)FY(y)pX(x)pY(y).

В дискретном случае:

pijP{Xxi, Yyj}P{Xxi}P{Yyj}piqj.

Совершенно аналогично вводятся n-мерные случайные величины.

Например, пусть независимые случайные величины Xi, i1, 2,  , n распределены по стандартному нормальному закону: XiN(0, 1), i1, 2,  , n. Их совместная плотность вероятности равна:

p(x1, x2,  , xn)exp(xi2).

Выполним невырожденное линейное преобразование и введём новые случайные величины

YkaijXi, k1, 2,  , n.

Это преобразование можно переписать в матричном виде: YAX, где XT
(X1, X2,  , Xn), YT(Y1, Y2,  , Yn), A||aij||, DetA0. Так как преобразование невырождено, то оно обратимо, так что XA1Y. В евклидовом пространстве переменных y1, y2,  , yn совместная плотность вероятности вектора Y равна

q(y1, y2,  , yn)exp(YTY),

где ATA – матрица квадратичной формы в показателе экспоненты, а |DetA|J – якобиан преобразования.

Обратно, если совместная плотность вероятности n-мерного вектора равна

q(y1, y2,  , yn)Cexp(YTY),

где  – положительно определённая матрица (что нужно для сходимости интеграла по всему пространству), а ^ C – константа, то существует такая матрица A, что ATA, С|DetA| и преобразование YAX, (XA1Y) приводит к независимым компонентам XiN(0, 1), i1, 2,  , n.

Можно сделать ещё одно обобщение, введя параметры масштаба и сдвига по всем осям.

n-мерной нормальной плотностью называется

p(x1, x2,  , xn)exp(aik(xibi)(xkbk)),

где aik, bi – параметры n-мерного нормального вектора, A||aij|| – положительно определённая матрица.

2 – распределение

Пусть X1, X2,  , Xn – независимые (в совокупности) нормально распределённые случайные величины: XiN(0, 1), i1, 2,  , n.

Определим сумму их квадратов:

n2Xi2

и найдём закон распределения случайной величины n2:

Fn2(x)exp(xi2)dx1dx2dxn, x0.

Принимая во внимание, что подынтегральная функция принимает постоянное значение на любой n-мерной сфере (x12x22xn2r2), проведём интегрирование по сферическим слоям. Обозначим через Vn(r) объём n-мерной сферы радиуса r, а через Sn(r) – площадь её поверхности.

Отметим, что:

Sn(r)Vn(r), Vn(r)Sn(r)dx.

В частности, в двумерном и трёхмерном случаях имеем:

V2(r)r2, S2(r)2r, V3(r)r3, S3(r)4r2.

Ясно, что можно считать

Vn(r)Cnrn, Sn(r)nCnrn1,

где Cn – константа, которую мы найдём ниже.

Продолжим теперь преобразование функции распределения n2:

Fn2(x)exp(r2)nCnrn1dr.

Мы превратили n-кратный интеграл в обычный однократный.

Из последнего равенства найдём плотность вероятности:

pn2(x)Fn2(x)exp()  pn2(x), x0.

Если x0, то ясно, что pn2(x)0.

Прежде, чем перейти к вычислению константы Cn, напомним определение и свойства гамма-функции, которыми нам ещё не раз придётся пользоваться.

––

^ Определение и свойства гамма-функции

Гамма-функция определена на положительной полуоси равенством:

(x)ettx1dt, x0.

Свойства гамма-функции:

1. (x1)x(x). Это свойство легко доказывается интегрированием по частям интеграла, определяющего (x1): (x1)ettxdt.

2. (1)1.

3. Для любого натурального n: (n1)n! Доказательство этого факта сразу следует из двух первых свойств. Данное свойство показывает, что гамма-функция является естественным обобщением факториала.

4. ().

Для доказательства этого свойства достаточно сделать замену переменной в интеграле, определяющем ():

()etdt

и положить ty2:

()dy.

Вспоминая рассмотренный нами выше интеграл Пуассона Idx, находим, что ().

5. Для полуцелого положительного n: (n).

Это равенство доказывается по индукции с использованием свойств 1 и 4.

6. Формула Стирлинга:

при x: (x1)xxex.

Мы приведём не вполне строгое, но достаточно простое доказательство этой формулы.

При любом фиксированном x (x0):

(x1)ettxdtexlnttdte(t)dt,

где (t)xlntt.

Легко убедиться, что функция (t) имеет максимум при tx. Разложим (t) в ряд Тейлора в окрестности точки tx, ограничиваясь первыми тремя слагаемыми:

(t)xlnxxxlnxx()2.

Поэтому

(x1)exlnxxdtxxexdt.

Введём новую переменную: y. Имеем:

(x1)xxexdy.

В последнем интеграле при больших x (x) нижний предел интегрирования можно заменить на : dydyI – интеграл Пуассона и, как мы знаем, он равен . Поэтому при больших положительных x:

(x1)xxex,

что и требовалось доказать.

––

Выше мы получили выражение для плотности вероятности pn2(x):

pn2(x) при x0 и pn2(x)0 при x0

и нам осталось найти величину константы Cn.

Воспользуемся свойством нормированности pn2(x):

dx1.

Подстановка x приводит интеграл к гамма-функции:

etdt1  ()1  Cn.

Итак, мы можем в окончательном виде записать плотность вероятности и функцию распределения случайной величины n2:

pn2(x), при x0, и pn2(x)0, при x0,

Fn2(x)dx, при x0, и Fn2(x)0, при x0.

Этот закон табулирован и нет необходимости вычислять интеграл точно даже для чётных n, при которых он берётся в элементарных функциях.

Попутно мы нашли общие формулы для объёма n-мерного шара и площади поверхности n-мерной сферы:

Vn(r)rn, Sn(r)rn1.

распределение

При y0:

Fn(y)P{ny}P{n2y2}dx.

Отсюда:

pn(y)Fn(y)yn1, при y0, и pn(y)0, при y0.

и, следовательно,

Fn(x)yn1dy, при y0 и Fn(x)0, при y0.

Распределение Стьюдента

Пусть даны две независимые случайные величины XN(0, 1), и n.

Определим случайную величину Tn равенством: Tn и найдём закон её распределения.

Совместная плотность вероятности двумерной случайной величины (X, n) равна:

p(x, y)yn1, для x, 0y.

Функция распределения дроби Tn равна:

FTn(t)P{Tnt}P{t}P{Xtn}.

Неравенству Xtn благоприятствуют точки, занимающие область, заштрихованную на Рис. 3:


Рис. 3.

x

y



Этой области досталась вероятность:

FTn(t)P{Tnt}dyp(x, y)dxdyyn1dx.

Отсюда находим плотность вероятности:

pTn(t)FTn(t)yn1ydy.

Отметим, что в интеграле t играет роль параметра и сделаем замену переменной:

uy2  y  dy.

Имеем:

pTn(t) eudu

и, выражая интеграл через гамма-функцию, мы можем записать плотность распределения Стьюдента в следующем – окончательном виде:

pTn(t).

Отметим, что при n1 из этой формулы получается плотность распределения Коши:

pT1(t),

т. е. случайную величину, распределенную по закону Коши, можно считать отношением двух независимых случайных величин, X, где XiN(0, 1), i1, 2.

Замечание. Часто случайную величину Tn определяют с дополнительным множителем: Tn. В этом случае плотность вероятности имеет вид:

pTn(t)(1).

Дополнительные множители появляются и в выражении для функции распределения.


^ Числовые характеристики случайных величин:
математическое ожидание, дисперсия,
коэффициент корреляции


Наиболее полная информация о случайной величине содержится в законе её распределения. Более бедную, но зато и более конкретную информацию о ней дают её числовые характеристики. Простейшей из них является математическое ожидание, которое интерпретируется как среднее значение случайной величины. Если посмотреть на закон распределения как на распределение единичной вероятностной массы между значениями случайной величины, то в качестве среднего значения можно взять координаты центра тяжести этой массы. По известным из анализа и механики формулам получаем формулы для вычисления абсциссы центра тяжести:

xp(x)dx – в непрерывном случае,
xkpk – в дискретном случае.

Для того, чтобы дать определение, пригодное и для общего случая, необходимо обобщить понятие риманова интеграла.

Сделаем поэтому небольшое математическое отступление.

––

^ Интеграл Стилтьеса

Интеграл Стилтьеса определяется для двух функций: одна из них (x) – называется интегрируемой, другая F(x) – интегрирующей. Разобьём всю ось на интервалы tk: [tk, tk1), относя для определённости к интервалу левый конец и исключая правый. В каждом интервале выберем произвольно точку k и составим интегральную сумму

(k)[F(tk1)F(tk)].

Перейдём к пределу, устремив наибольший из интервалов к нулю. Если предел существует и не зависит ни от способа разбиения оси на интервалы, ни от способа выбора точек k на них, то он называется интегралом Стилтьеса от функции (x) по функции F(x) и обозначается: (x)dF(x).

Легко убедиться в том, что обычные свойства интеграла сохраняются: постоянный множитель можно выносить за знак интеграла, интеграл от суммы равен сумме интегралов.

Интеграл Римана является частным случаем интеграла Стилтьеса для F(x)x.

Рассмотрим два частных случая:

a. F(x) – ступенчатая функция, имеющая в точках xi скачки величины pi и постоянная между этими точками. Приращения F(tk1)F(tk) на тех интервалах tk, которые не содержат точек разрыва функции F(x), равны нулю; если же точка xi является единственной точкой разрыва F(x), содержащейся в интервале tk, то разность F(tk1)F(tk) равна pi. Считая, что все точки разрыва изолированные, при переходе к пределу получим: (x)dF(x)(xi)pi.

b. F(x) – дифференцируемая функция: существует производная F(x)p(x). В интегральной сумме для интеграла Стилтьеса (k)[F(tk1)F(tk)] каж­дую из разностей [F(tk1)F(tk)] заменим по формуле Лагранжа: на каждом промежутке tk найдётся такая точка k, в которой F(tk1)F(tk)F(k)
p(k)tk; пользуясь произволом в выборе точек k из промежутка tk, возьмём в каждом слагаемом интегральной суммы kk и тогда сумма примет вид:

(k)p(k)tk,

а это – ни что иное, как риманова интегральная сумма для функции (x)p(x). Поэтому:

(x)dF(x)(x)p(x)dx.

В теории вероятностей интеграл Стилтьеса оказался удобным средством объединения случаев непрерывного и дискретного распределений в общем случае.

––

Вернёмся к изучению числовых характеристик случайных величин.

1. Выше мы ввели понятие математического ожидания для дискретной и непрерывной случайных величин.

Пусть теперь ^ X – случайная величина с функцией распределения F(x). Возьмём произвольную функцию (x).

Назовём математическим ожиданием функции  от случайной величины X число M(X), определяемое равенством:

M(X)(x)dF(x).

В частности, для непрерывной случайной величины с плотностью вероятности p(x) получаем:

M(X)(x)p(x)dx,

а для дискретной случайной величины с распределением pkP{Xxk}:

M(X)(xk)pk.

В случае, когда (x)x, последние три формулы принимают вид:

MXxdF(x) – в общем случае,
MXxp(x)dx – в непрерывном случае,
MXxkpk – в дискретном случае.

Формулы для непрерывного и дискретного случаев совпали с формулами для абсциссы центра тяжести распределения вероятностной массы, и тем самым оправдывается истолкование математического ожидания случайной величины X как среднего значения.

Для корректности определения математического ожидания следует обсудить вопрос о его существовании и единственности.

Вопрос о единственности M(X) возникает потому, что (X) сама является случайной величиной со своей функцией распределения F(x) и в соответствии с нашим определением её математическое ожидание равно xdF(x).

Для однозначности определения необходимо выполнение равенства

(x)p(x)dxxdF(x)

и такое равенство действительно можно доказать: оно даёт правило замены переменных в интеграле Стилтьеса. Мы здесь вынуждены принять его без доказательства.

Вопрос о существовании математического ожидания: ясно, что в непрерывном и дискретном случае любая ограниченная случайная величина имеет математическое ожидание. Если же X может принимать сколь угодно большие значения, то в дискретном случае сумма, определяющая MX, становится бесконечным рядом, а в непрерывном – интеграл становится несобственным, причём оба могут расходиться. Очевидно, в непрерывном случае достаточным условием существования среднего значения у случайной величины является

p(x)O() при x (0),

а в дискретном случае:

xkpkO() при k (0).

Однако оба эти условия не являются необходимыми.

Легко также придумать примеры случайных величин, не имеющих среднего. Для непрерывного случая таким примером может служить распределение Коши. В дискретном подобный пример придумать ещё проще, если учесть, что вероятность pk можно приписать сколь угодно большим числам xk.

Если дана двумерная случайная величина (X, Y), то математическое ожидание функции (X, Y) определяется равенствами

M(X, Y)(x, y)p(x, y)dxdy – в непрерывном случае
(интеграл берётся по всей плоскости),

M(X, Y)(xi, yj)pij – в дискретном случае
(сумма берётся по всем возможным значениям
двумерной случайной величины).

2. Второй по важности числовой характеристикой случайной величины ^ X служит её дисперсия DX. Дисперсией называется

DXM[(XMX)2](xMX)2dF(x),

т. е. среднее значение квадрата отклонения случайной величины от её среднего. Эта формула в непрерывном случае переходит в

DX(xMX)2p(x)dx,

а в дискретном в:

DX(xkMX)2pk.

Если среднее есть не у всех случайных величин, то дисперсия и подавно. В дальнейшем все теоремы о MX и DX без особых оговорок формулируются лишь для тех X, которые их имеют.

Размерность дисперсии равна квадрату размерности случайной величины ^ X. Поэтому иногда удобно вместо DX рассматривать величину X, называемую средним квадратичным отклонением случайной величины X или просто стандартом.

Дисперсия и стандарт мыслятся как меры разброса значений случайной величины вокруг её среднего.

3. Докажем несколько простых утверждений:

Математическое ожидание постоянной C равно C: MCC.

Постоянный множитель можно выносить за знак математического ожидания:

              M(CX)CMX.

Дисперсия постоянной равна нулю: DC0.

Постоянный множитель выносится за знак дисперсии в квадрате:

              D(CX)C2DX.

Постоянную C можно рассматривать как частный случай дискретной случайной величины, принимающей единственное значение C с вероятностью, равной 1. Поэтому MCC1C.

Свойство M(CX)CMX следует из определения математического ожидания как предела интегральных сумм: постоянный множитель можно выносить за знак суммы и знак интеграла.

О дисперсии:

DCM[(CMC)2]M[(CC)2]M00;

D(CX)M[(CXM(CX))2]M[(CXCM(X))2]
M[C2(CMC)2]C2M[(XMX)2]C2DX.

4. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий:

M(XY)MXMY.

Докажем эту теорему отдельно для непрерывного и дискретного случая.

a. Непрерывный случай. Пусть p(x, y) – двумерная плотность вероятности.

Согласно определению математического ожидания функции от двумерной случайной величины:

M(XY)(xy)p(x, y)dxdy.

Представляя двойной интеграл как сумму двух повторных и выбирая соответствующий порядок интегрирования в слагаемых, имеем:

M(XY)xdxp(x, y)dyydyp(x, y)dx
xpX(x)dxypY(y)dyMXMY.

b. Дискретный случай.

M(XY)(xiyj)pij.

Представляем двойную сумму как две повторные:

M(XY)xipijyipijxipiyjpjMXMY.

Аналогично эту теорему можно доказать для смешанного случая. Общая же формулировка потребовала бы введения двумерного интеграла Стилтьеса.

5. Предыдущая теорема естественно обобщается на сумму n слагаемых:

MMXi.

Как частный случай применения этой формулы отметим следующую задачу: имеются события A1, A2,  , An, их вероятности соответственно равны p1, p2,  , pn. Спрашивается, чему равно ожидаемое число событийA1, A2,  , An, которые произойдут в опыте? Определим вспомогательные случайные величины Xi равенствами:

1
Xi
, если событие Ai произошло,
0, если событие Ai не произошло.

Всего в опыте происходит Xi событий, а ожидаемое число равно

MMXipi.

6. Ещё одна формула для дисперсии: DXM(X2)M2(X).

Действительно, в силу теорем 3 и 4 имеем:

DXM[(XMX)2]M(X2)MXMXM[M(X)2]
M(X2)2.M2(X)M2(X)M(X2)M2(X).

В частности, если MX0, то DXM(X2).

7. Нормированной случайной величиной X назовём:

X.

Это – безразмерная случайная величина, причём:

a) MX0, b) M(X2)1, c) DX1.

Действительно, по теореме 3 и 4:

MXM()(MXMX)0,
M(X2)M[]M[(XMX)2]DX1,
DXM(X2)(MX)2101.

8. Если DX0, то почти наверное Xconst. Действительно,

DX(xMX)2dF(x).

Интегрируемая функция (xMX)2 неотрицательна, причём обращается в ноль, только в точке xMX. Интегрирующая функция F(x) монотонно неубывающая, причём её наименьшее значение 0, а наибольшее 1. Очевидно, равенство DX0 возможно лишь в том случае, когда весь рост функции F(x) сосредоточен в точке MX,  а это и означает, что Xconst почти наверное.

9. Пусть дана двумерная случайная величина (X, Y). Назовем коэффициентом корреляции двумерной случайной величины число

rr(X, Y)M(X, Y).

Числитель здесь называется ковариацией случайных величин X и Y:

cov(X, Y)M[(XMX)(YMY)]M(XY)MXMY.

Из определения коэффициента корреляции следует, что

cov(X, Y)r.

Очевидно, коэффициент корреляции не меняется при линейном преобразовании случайных величин; в частности, r(X, Y)r(X, Y).

Коэффициент корреляции – числовая характеристика пары случайных величин, определённых на одном и том же вероятностном пространстве, –заслу­жил репутацию меры линейной связи величин X и Y.

Основанием к этому служат последующие теоремы о коэффициенте корреляции.

10.M(XY)MXMYcov(X, Y) или M(XY)MXMYr.

Действительно:

M(XY)M{[(XMX)MX][(YMY)MY]}
M[(XMX)(YMY)]MYM(XMX)MXM(YMY)M(MXMY)
MXMYcov(X, Y).

   Если коэффициент корреляции равен нулю, то математическое ожидание произведения случайных величин равно произведению их математических ожиданий: r0  M(XY)MXMY.

   Случайные величины X и Y, коэффициент корреляции которых равен нулю, называются некоррелированными.

11. Если случайные величины X и Y независимы, то M(XY)MXMY.

Докажем эту теорему отдельно для непрерывного и дискретного случая.

a. Непрерывный случай. Пусть p(x, y) – двумерная плотность вероятности. Так как X и Y независимы, то p(x, y)pX(x)pY(y). Поэтому:

M(XY)xyp(x, y)dxdyxpX(x)dxypY(y)dyMXMY.

b. Дискретный случай. Вероятности pij можно представить как: pijpiqj

M(XY)xiyjpijxiyjpiqjxipiyjqjMXMY.

12. Если случайные величины X и Y независимы, то они некоррелированы: r0.

Это утверждение следует из 11 и формулы для коэффициента корреляции:

r.

13. Для двух произвольных случайных величин X и Y:

D(XY)DXDY2r

или

D(XY)X2Y22rXY.

Для некоррелированных, тем более – для независимых случайных величин:

D(XY)DXDY.

В частности, D(aXb)a2DX, D(Xc)DX.

14. Как частный случай теоремы 13 находим: D(XY)2(1r).

Для доказательства достаточно воспользоваться теоремой 7.

15. Обобщим теорему 13 на случай n слагаемых.

DMM
M
DXi2cov(Xi, Xj)DXi2r(Xi, Xj)ij,

где i, j

   Для попарно некоррелированных случайных величин дисперсия суммы
равна сумме дисперсий: DDXi.

16. Для того, чтобы случайные величины X и Y были связаны линейно, необходимо и достаточно, чтобы их коэффициент корреляции r был равен 1.

a. Необходимость. Пусть YaXb.

Имеем:

rM{(XMX)[aXbM(aXb)]}
M{(XMX)[aXaMXbMb]}
aM[(XMX)2]DXsigna.

b. Достаточность. Пусть r1.

По теореме 14: D(XY)2(1r).

Поэтому, если r1, то D(XY)2(1r)0 и по теореме 8: с вероятностью, равной 1, XYconst  const, т. е. X и Y связаны ли­нейно.

Если же r1, то D(XY)2(1r)0 и почти наверное XYconst  const и опять получается, что X и Y линейно связаны.

17. Пусть наблюдается двумерная случайная величина (X, Y), при этом представляет интерес случайная величина Y, тогда как измерению доступны значения случайной величины X. Желательно по X предсказать (в каком-то смысле – наилучшим образом) Y. В качестве предсказания можно мыслить различные функции (X): Y(X), а качество приближения оценивать среднеквадратической ошибкой: оптимальным считать такое приближение (X), которое минимизирует математическое ожидание M[(Y(X))2].

Здесь мы найдём лучшее приближение среди всех линейных приближений, причём будем решать эту задачу для нормированных случайных величин X, Y, т. е. будем предполагать, что YaXb.

Ищем такие a и b, которые минимизируют функцию

I(a, b)M[(YaXb)2].

Очевидно,

I(a, b)M(Y2)a2(MX)2b22aM(XY)2bMY2abMX

и по теореме 7:

I(a, b)1a2b22ar.

Уравнения для нахождения экстремума:



2a2r0,
2b0.

Отсюда следует, что ar, b0 и наилучшее предсказание: YrX или:

r,

что можно переписать в виде:

Yr(XMX)MY

(именно эту формулу мы бы получили, если бы решали задачу для (X, Y), а не для (X, Y)).

Прямая

yr(xMX)MY

называется линией регрессии Y на X.

В частности, если X и Y – независимые случайной величины, то наша формула указывает следующее наилучшее предсказание: YMY и никакой информации о Y случайная величина X не содержит.

18. Для n-мерной случайной величины (X1, X2,  , Xn) роль дисперсии играет так называемая ковариационная матрица:

Dcov(Xi, Xj),

или

Drijij,

где rijr(Xi, Xj), i, j

D – симметричная матрица размера nn с диагональными элементами, равными дисперсиям случайных величин.

Найдём ковариационную матрицу n-мерного нормального закона, задава­емого совместной плотностью

p(x1, x2,  , xn)exp((xa)T(xa)),

где xT(x1, x2,  , xn), aT(a1, a2,  , an), ATA||aij||.

С помощью линейного преобразования YA(Xa) можно привести квад­ратичную форму (xa)T(xa) к сумме квадратов переменных y1, y2,  , yn.

Плотность p(x1, x2,  , xn) постоянна на эллипсоидах (xa)T(xa)const. Из соображений симметрии ясно, что центр тяжести такого распределения лежит в точке (a1, a2,  , an), так что вектор математических ожиданий равен

(MX1, MX2,  , MXn)(a1, a2,  , an).

Ковариационная матрица выглядит поэтому так:

DM[(Xiai)(Xjaj)].

Общий элемент этой матрицы равен

cov(Xi, Xj)(xiai)(xjaj)exp(aij(xiai)(xjaj))dx1dxn.

Переходим к новым переменным y1, y2,  , yn по формуле YA(Xa). Якобиан этого преобразования, очевидно, равен J. Матрица ^ A обратима, так что XaA1Y.

При вычислении интеграла учёт чётности и нечётности отдельных слагаемых даёт:

cov(Xi, Xj) yk2(A1)ki(A1)kjexp(yi2)dy1dyn
(A1)ki(A1)kj,

а это есть, очевидно, общий элемент матрицы (ATA)1. Отсюда следует, что ковариационная матрица D есть матрица, обратная матрице :

D1.

Нормальный n-мерный закон можно поэтому задать с помощью вектора математических ожиданий a(a1, a2,  , an) и ковариационной матрицы D:

p(x1, x2,  , xn)exp((xa)D1(xa)T).

Ковариационная матрица двумерного нормального закона равна:

D.

В соответствии с правилами нахождения обратной матрицы, известными из алгебры, легко вычислить D1, т. е. матрицу :

.

Поэтому двумерную нормальную плотность можно задать следующей формулой:

p(x, y)exp{[2r]}.

Устройство матрицы A можно понять из геометрических соображений. Поскольку положительно определённая квадратичная форма определяет эллипсоид, можно с помощью поворота координатной системы, т. е. с помощью ортогонального преобразования XaOY, YOT(Xa) направить оси координат по осям симметрии эллипсоида. Это приводит квадратичную форму в показателе экспоненты к сумме iyi2:

p(y1, y2,  , yn)exp(YTOTOY),

где OTO – диагональная матрица: diag(1, 2,  , n).

19. Пусть X1, X2,  , Xn – попарно некоррелированные случайные величины с одинаковыми математическими ожиданиями и одинаковыми дисперсиями:

MXia, DXi2, i1, 2, … , n.

Обозначим через среднее арифметическое величин X1, X2,  , Xn:

Xi.

Тогда: a, 2.

Эти равенства непосредственно следуют из теорем 3, 5 и 15.

Теорема 19, в частности, применима к последовательности X1, X2,  , Xn независимых и одинаково распределённых случайных величин, имеющих математическое ожидание и дисперсию. В этой схеме содержится случай повторных независимых измерений физической величины, точное значение которой равно a; в измерения вкрадываются случайные ошибки и n независимых измерений дают случайные значения X1, X2,  , Xn. Если измерения не содержат систематической ошибки (на вероятностном языке это означает, что MXia, i1, 2, … , n) и являются равноточными (т. е. DXi2, i1, 2, … , n), то среднее арифметическое обладает двумя упомянутыми свойствами: a,
2. Это означает, что среднее арифметическое также не содержит систематической погрешности, а его среднеквадратическая ошибка в раз меньше, чем ошибка одного измерения. Это объясняет выгодность повторения независимых измерений для более точного измерения. Однако в то же время ясно, что точность растёт медленнее, чем число наблюдений. Чтобы, например, повысить точность измерений в десять раз, нужно увеличить число наблюдений в сто раз.
1   2   3   4   5   6



Скачать файл (3589.5 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации