Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Вопросы для экзамена по курсу Теория вероятностей - файл Теория вероятностей 2.doc


Вопросы для экзамена по курсу Теория вероятностей
скачать (176.3 kb.)

Доступные файлы (2):

Теория вероятностей 1.doc126kb.02.11.2011 14:50скачать
Теория вероятностей 2.doc356kb.02.11.2011 14:51скачать

Теория вероятностей 2.doc



Вопрос 2

Диаграмма Вьенна-Эйлера
А) событие A

Б) Сложение – событие, кот состоит в том, что происходит хотя бы одно из событий A или B

В) произведение событий- А и B одновременно

Г) Дополнение – событие принадлежит к А, но не принадлежит к B

Д) противоположное событию A событие В

Е) Несовместимые события – если они не могут произойти одноременно

Ж) События образуют полную группу, если хотя бы одно из них обязательно происходит в результате испытания

З) А влечет за собой В
Вопрос 3

Классическая формула вероятности

Если множество элементарных событий Ω={ω1,ω2,…ωN},конечно и все элементарные события равновозможны, то такая вероятностная схема носит название классической. В этом случае вероятность Р{А} наступления события А, состоящего из М элементарных событий, входящих в Ω, определяется как отношение числа М элементарных событий, благоприятствующих наступлению события А, к общему числу N элементарных событий. Эта формула носит название классической формулы вероятности: Р{А}= M/N.

В частности, согласно классической формуле вероятности:

Р{ωi }=1/N (i=1,2,... , N)

Р{Ω}= N/N =1

P{}=0/N =0

Комбинаторика, 1) то же, что математический комбинаторный анализ. 2) Раздел элементарной математики, связанный с изучением количества комбинаций, подчинённых тем или иным условиям, которые можно составить из заданного конечного множества объектов (безразлично, какой природы; это могут быть буквы, цифры, какие-либо предметы и т.п.). Число размещений. Пусть имеется n различных предметов. Сколькими способами можно выбрать из них т предметов (учитывая порядок, в котором выбираются предметы)? Число способов равно Anm =? Anm называют числом размещений из n элементов по m. Число сочетаний. Пусть имеется n различных предметов. Сколькими способами можно выбрать из них т предметов (безразлично, в каком порядке выбираются предметы)? Число способов такого выбора равно Cnm = Cnm называют числом сочетаний из n элементов по m. Числа Cnm получаются как коэффициенты разложения n-й степени двучлена: (a+b) n=Cn0 an + Cn1 an-1b +Cn2an-2b2 ?+... + Cnn-1abn-1 + Cnn bn, и поэтому они называются также биномиальными коэффициентами. Основные соотношения для биномиальных коэффициентов: Cnm=Cnn-m, Cnm? + Cnm+1 = Cn+1m+1, Cn0 + Cn1 + Cn2 +...+ Cnn-1 + Cnn =2n, ? Cn0 - Cn1 + Cn2-...+ (-1) nCnn = 0. Числа Anm, Pm и Cnm связаны соотношением: Anm=Pm Cnm. Рассматриваются также размещения с повторением (т. е. всевозможные наборы из m предметов n различных видов, порядок в наборе существен) и сочетания с повторением (то же, но порядок в наборе не существен). Число размещений с повторением даётся формулой nm, число сочетаний с повторением - формулой Cmn+m-1.
Вопрос 4

При аксиоматическом построении вероятностей в каждом конкретном пространстве элементарных событий выделяется -поле событий S для каждого события A S задается вероятность P{A} – числовая функция, определенная на -поле событий S и удовлетворяющая следующим аксиомам.

Аксиома неотрицательности вероятности для всех A S: P{A} 0.

Аксиома нормированности вероятности: P{}=1.

Аксиома адаптивности вероятности: для всех A,BS,таких, что AB: P{AB}=P{A} +P{B}
Вопрос 6

1) Условная вероятность события А при условии В равна Р(А/B)=P(A*B)/P(B), Р(В)>0.

2) Событие А не зависит от события В, если Р(А/B)=P(A). Независимость событий взаимна, т.е. если событие А не зависит от В, то событие В не зависит от А. В самом деле при Р(А)>0 имеем Р(B/A)=P(A*B)/P(A)=P(A/B)*P(B)/P(A)=P(A)*P(B)/P(A)=P(B). Вытекает следующая формула умножения вероятностей: Р(А*В)=Р(А)*Р(В/A). Для независимых событий вероятность произведения событий равна произведению их вероятностей: Р(А*В)=Р(А)*Р(В). 3) События А1,А2,…,Аn образуют полную группу событий, если они попарно несовместны и вместе образуют достоверное событие, т.е. Аi*Aj=0, i не=j, U по i от 1 до n Аi=омега.

Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило: Р(АВ)=Р(А)*Ра(В). В частности для независимых событий Р(АВ)=Р(А)*Р(В), т.е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий.

Вопрос 7

Формула полной вероятности. Систему событий А1, А2, ...,AN называют конечным разбиением (или просто разбиением), если они попарно несовместны, а их сумма образует полное пространство событий: А1 + А2 + ... + АN = 

Если события Аi образуют разбиение пространства событий и все P(Ai) > 0, то для любого события В имеет место формула полной вероятности: P(B) =P(Ak)P(B/Ak),

что непосредственно следует из (8.2.14) для попарно несовместных событий:

B = B = BA1+BA2+...BAN.

P(B) = P(BA1)+P(BA2)+... +P(BAN) = P(A1)P(B/A1)+P(A2)P(B/A2)+...+P(AN)P(B/AN).
Вопрос 8

Формула баеса

Вопрос 9




Вопрос 10

Случайной величиной называется числовая величина, которая в результате опыта может принять какое-либо значение из некоторого множества, причем заранее, до проведения опыта, невозможно сказать, какое именно значение она примет. Случайные величины обозначают заглавными латинскими буквами X, Y, Z,..., а их возможные значения — строчными латинскими буквами х, у, z. Случайная величина называется дискретной, если множество ее значений конечно или счетно, и непрерывной в противном случае. Законом распределения случайной величины называется любое со­отношение, связывающее возможные значения этой случайной ве­личины и соответствующие им вероятности. Закон распределения дискретной случайной величины задается чаще всего не функцией распределения, а рядом распределения, т.е, таблицей

Х

x1

x2

...

xn

...

P

p1

p1

...

pn

...

В которой x1, x2, ..., xn, ... - расположенные по возрастанию значения дискретной случайной величины X, а р1, р2, ..., рп, ... — отвечающие этим значениям вероятности: pi = Р{Х = хi), i= 1, 2, ..., п, ... . Число столбцов в этой таблице может быть конечным (если соответствующая случайная величина принимает конечное число значений) или бесконечныи. Очевидно, pi= 1.

Многоугольником распределения дискретной случайной величины X называется ломаная, соединяющая точки {xi; pi), расположенные в Порядке возрастания хi.
Вопрос 11

Функцией распределения случайной величины Х называется функция FX(x)= P{X<x}, xR

Под {X<x}понимается событие, состоящее в том, что случайная величина Х принимает значение меньшее, чем число х. Если известно, о какой случайной величине идёт речь, то индекс, обозначающий эту случайную величину, опускается: F(x)  FX(x).

Как числовая функция от числового аргумента х, функция распределения F(x) произвольной случайной величины Х обладает следующими свойствами:

1)для любого xR: 0 F(x)  1

2) F(-) = limx F(x) = 0 ; F(+) = limx F(x) = 1;

3) F(x)-неубывающая функция, т.е.для любых х1,х2 R таких, что х1<х2: F(x1)  F(x2);

4)для любого xR: F(x)= F(x-0)= lim z<x,zxF(z).
Вопрос 12

Мат. Ожиданием Д.С.В. называют сумму произведений всех ее возможных значений на их вероятности: М(Х)=х1р1+х2р2+…+хnpn. Если Д.С.В. принимает счетное множество возможных значений, то М(Х)=сумма по i от 1 до бесконечности xipi, причем мат. ожидание существует, если ряд в правой части равенства сходится абсолютно. Мат. ожидание обладает следующими свойствами: 1) Мат. ожидание постоянной величины равно самой постоянной: М(С)=С. 2) Постоянный множитель можно выносить за знак мат. ожидания: М (СХ)=СМ (Х). 3) Мат. ожидание произведения взаимно независимых С.В. равно произведению мат. ожиданий сомножителей: М (Х1,Х2…Хn)=M(X1)*M(X2)…M(Xn). 4) Мат. ожидание суммы С.В. равно сумме мат. ожиданий слагаемых: М (Х1+Х2+Х3+…+Хn)=M(X1)+M(X2)+M(X3)+…+M(Xn).

Вопрос13

Дисперсией случайной величины х называется число: DX= M(X-MX)2 ,равное математическому ожиданию квадрата отклонения случайной величины от своего математического ожидания. Для вычисления дисперсии иногда проще использовать формулу: DX=M(X2)-(MX)2 . Для дискретных св:

DX=∑(xi – MX)2 pi;

DX=∑xi2pi – (MX) 2.

Свойства дисперсии дискретной случайной величины: (X,Y-независимые д.св, с- неслучайная постоянная R)

Dc=0;

D(cX)=c2DX;

D(X+Y)= DX + DY
Вопрос 15

Случайная величина Х наз.распределённой по геометрическому закону с параметром р (р[0;1]), если она принимает значения 1,2,3… с вероятностями Р{Х=х}= р(1-р)х-1 (х = 1,2,3…).

Случайную величину Х можно интерпритировать как число испытаний Бернулли, которые придётся произвести до первого успеха, если успех в единичном испытании может произойти с вероятностью р.

Математическое ожидание случайной величины, имеющей геометрическое распределение: МХ=1/p.

Дисперсия: DX=1-p/p2

Вопрос 16

Если число испытаний велико, а вероятность ^ P повяления события в каждом испытнаии очень мала, то используют приближенную формулу

Pn(k)=^k*e^(-/k)

Где k – число появлений события в n независимых испытаниях, = np (среднее число появлений события в n независимых испытаниях), и говорят, что случайная величина распределена по закону Пуассона.

Вопрос 17

С.В. Х называется непрерывной, если существует неотрицательная функция рх(х) такая, что при любых х функцию распределения Fx(x) можно представить в виде: Fx(x)=интеграл от –бесконечности до х px(y)dy. Рассматривают только такие С.В., для которых рх(х) непрерывна всюду, кроме, может быть, конечного числа точек. Плотностью распределения вероятностей непрерывной С.В. называют первую производную от функции распределения: f(x)=F’(x). Вероятность того, что Н.С.В. Х примет значение, принадлежащее интервалу (а,b), определяется равенством P(a<X<b)=интервал от а до b f(x)dx. Зная плотность распределения можно найти функцию распределения F(x)=интеграл от –бесконечности до х f(x)dx. Плотность распределения обладает следующими свойствами: 1) П.Р. неотрицательна, т.е. f(x)>=0. 2) Несобственный интеграл от плотности распределения в пределах от –бесконечности до бесконечности равен единице: интеграл от –бесконечности до бесконечности f(x)dx=1.
Вопрос 18

Мат. ожидание Н.С.В. Х, возможные значения которой принадлежат всей оси ОХ, определяется равенством: М(Х)=интеграл от –бесконечности до бесконечности хf(x)dx, где f(x) - плотность распределения С.В. Х. Предполагается, что интеграл сходится абсолютно. В частности, если все возможные значения принадлежат интервалу (а,b), то М(Х)=интеграл от а до b xf(x)dx. Все свойства мат. ожидания, указаны выше, для Д.С.В. Они сохраняются и для Н.С.В.

Дисперсия Н.С.В. Х, возможные значения которой принадлежат всей оси ОХ, определяется равенством: D(X)=интеграл от –бесконечности до бесконечности [x-M(X)]*2f(x)dx, или равносильным равенством: D(X)=интеграл от –бесконечности до бесконечности x*2f(x)dx – [M(X)]*2. В частности, если все возможные значения х принадлежат интервалу (a,b),то D(X)=интервал от а до b [xM(X)]*2f(x)dx,или D(X)=интеграл от
Вопрос 19

Моменты распределения. При решении многих практических задач нет особой необходимости в полной вероятностной характеристике каких-либо случайных величин, которую дает функция плотности распределения вероятностей. Очень часто приходится также иметь дело с анализом случайных величин, плотности вероятностей которых не отображаются аналитическими функциями либо вообще неизвестны. В этих случаях достаточно общее представление о характере и основных особенностях распределения случайных величин можно получить на основании усредненных числовых характеристик распределений.

Числовыми характеристиками случайных величин, которые однозначно определяются функциями распределения их вероятностей, являются моменты.

Начальные моменты n-го порядка случайной величины X (или просто моменты) представляют собой усредненные значения n-й степени случайной переменной: mn  М{Xn} = xn p(x) dx, где M{Xn} и - символические обозначения математического ожидания и усреднения величины Хn, которые вычисляются по пространству состояний случайной величины Х.

Соответственно, для случайных дискретных величин: mn  М{Xn} =xin pi.

Центральные моменты n-го порядка, это моменты относительно центров распределения (средних значений) случайных величин:

n  M{(X-)n} =(x-m1)n p(x) dx

n  M{(X-)n} =(xi-m1)n pi, где - начальный момент 1-го порядка (среднее значение величины Х), X0 = X- - центрированные значения величины Х.

Связь между центральными и начальными моментами достаточно проста:

1=0, 2=m2-m12, 3=m3-3m2m1+2m13, 4=m4-4m1m3+6m12m2-3m14, и т.д.

Соответственно, для случайных величин с нулевыми средними значениями начальные моменты равны центральным моментам.

По результатам реализации случайных величин может производиться только оценка моментов, т.к. количество измерений всегда конечно и не может с абсолютной точностью отражать все пространство состояний случайных величин. Результаты измерений - выборка из всех возможных значений случайной величины (генеральной совокупности). Оценка моментов, т.е. определение средних значений n-й степени по выборке из N зарегистрированных значений, производится по формулам: = (1/N)xin, = (1/N)(xi-)n
Вопрос 20

Равномерным называют распределение вероятностей Н.С.В. Х, если на интервале (а,b), которому принадлежат все возможные значения Х, плотность сохраняет постоянное значение, а именно f(x)=1/(b-a); вне этого интервала f(x)=0. Нетрудно убедиться, что интеграл от –бесконечности до бесконечности р(х)dx=1. Для С.В., имеющей равномерное распределение , вероятность того, что С.В. примет значения из заданного интервала (х,х+дельта) прин. [a,b], не зависит от положения этого интервала на числовой оси и пропорциональна длине этого интервала дельта: P{x<X<x+дельта}=интеграл от х до х+дельта 1/b-adt=дельта/b-a. Функция распределения Х имеет вид: F(x)=0, при х<=a, x-a/b-a,при a<x<=b,1при х>b.

Вопрос 21

Случайная величина Х с функцией распределения

F(x)= {0, x<0,

{1- e μx x0

называется распределённой по показательному закону с параметром μ. Плотность распределения этой случайной величины получается путём дифференцирования:

f(x)={0, x<0,

{μeμx x0.

Интервал времени между двумя последовательными появлениями некоторого редкого события описывается случайной величиной, распределённой по показательному закону.

MX=1/μ DX=1/μ2
Вопрос 22

Потоком событий называют последовательность событий, которые наступают в случайные моменты времени.

^ Простейшим (пуассоновским) называют поток событий, который обладает следующими тремя свойствами: стационарностью, «отсутст­вием последействия» и ординарностью.

^ Свойство стационарности состоит в том, что вероятность появле­ния k событий в любом промежутке времени зависит только от числа k и от длительности t промежутка времени и не зависит от начала его отсчета. Другими словами, вероятность появления k событий за промежуток времени длительностью t есть функция, за-висящая только от k и t.

Свойство «отсутствия последействия» состоит в том, что вероят­ность появления k событий в любом промежутке времени не зависит от того, появлялись или не появлялись события в моменты времени, предшествующие началу рассматриваемого промежутка. Другими словами, предыстория потока не влияет на вероятности появле­ния событий в ближайшем будущем.

^ Свойство ординарности состоит в том, что появление двух или более событий за малый промежуток времени практически невозможно. Другими словами, вероятность появления более одного со­бытия за малый промежуток времени пренебрежимо мала по срав­нению с вероятностью появления только одного события.

^ Интенсивностью потока называют среднее число событий, которые появляются в единицу времени.

Если постоянная интенсивность потока известна, то вероят­ность появления k событий простейшего потока за время t опреде­ляется формулой Пуассона



Замечание. Поток, обладающий свойством стационарности, называют стационарным; в противном случае—нестационарным.
Вопрос 23

(на отдельном листе)
Вопрос 24

Н.С.В. Х имеет нормальное распределение вероятностей с параметром а и сигма>0, если ее плотность распределения имеет вид: р(х)=1/(корень квадратный из 2пи *сигма) * е в степени –1/2*(x-a/сигма)*2. Если Х имеет нормальное распределение, то будем кратко записывать это в виде Х прибл. N(a,сигма). Так как фи(х)=1/(корень из 2пи)*е в степени –х*2/2 – плотность нормального закона распределения с параметрами а=0 и сигма=1, то функция Ф(х)=1/(корень из 2пи)* интеграл от –бесконечности до х е в степени –t*2/2dt, с помощью которой вычисляется вероятность P{a<=мюn-np/(корень из npq)<=b}, является функцией распределения нормального распределения с параметрами а=0, сигма=1.

Вопрос 25

Функцией (или интегралом вероятностей) Лапласа называется функция

При решении задач, как правило, требуется найти значение функции по известному значению аргумента или, наоборот, по известному значению функции требуется найти значение аргумента. Для этого пользуются таблицей значений функции Лапласа и учитывают следующие свойства функции

10. Функция Лапласа нечётная, т.е.

20. Функция Лапласа монотонно возрастающая, причём ( практически можно считать, что уже при . Так при ).




Вопрос 26

Неравенство Чебышева: Если известна дисперсия С.В., то с ее помощью можно оценить вероятность отклонения этой величины на заданное значение от своего мат. ожидания, причем оценка вероятности отклонения зависит лишь от дисперсии. Соответствующую оценку вероятности дает неравенство Чебышева. Неравенство Чебышева является частным случаем более общего неравенства, позволяющего оценить вероятность события, состоящего в том, что С.В. Х превзойдет по модулю произвольное число t>0. P{|XMX|>=t}<=1/t*2 M(XMX)*2=1/t*2 DX – неравенство Чебышева. Оно справедливо для любых С.В., имеющих дисперсию; оценка вероятности в нем не зависит от закона распределения С.В. Х.

Под законом больших числе понимается обобщенное название группы теорем, утверждающих, что при неограниченном увеличении числа испытаний средние величины стремятся к некоторым постоянным.

Теорема Чебышева: Если последовательность попарно независимых С.В. Х1,Х2,Х3,…,Xn,… имеет конечные мат. ожидания и дисперсии этих величин равномерно ограничены (не превышают постоянного числа С), то среднее арифметическое С.В. сходится по вероятности к среднему арифметическому их мат. ожиданий, т.е. если эпселен – любое положительное число, то: lim при n стремящемся к бесконечности P(|1/n сумма по i от 1 до n Xi – 1/n сумма по i от 1 до n M(Xi)|<эпселен)=1. В частности, среднее арифметическое последовательности попарно независимых величин, дисперсии которых равномерно ограничены и которые имеют одно и тоже мат. ожидание а, сходится по вероятности к мат. ожиданию а, т.е. если эпселен – любое положительное число, то: lim при n стремящемся к бесконечности P(|1/n сумма по i от 1 до n Xia|<эпселен)=1.

Теорема Бернулли: Если вероятность успеха в каждом из п независимых испытаний постоянна и равна р, то для произвольного, сколь угодно малого ε > 0 справедливо предельное равенство



где т число успехов в серии из п испытаний.


Вопрос 27

Локальная теорема Лапласа. Вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна р(0<p<1), событие наступит ровно k раз (безразлично, в какой последовательности), приближенно равна (тем точнее, чем больше n). Pn(k)=1/(корень из npq)*фи(х). Здесь Фи(х)=1/(корень из 2пи)*е в степени –х*2/2, x=knp/(корень из npq). Интегральная теорема Лапласа. Вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна р(0<p<1), событие наступит не меньше k1 раз и не более k2 раз, приближенно равна: P(k1;k2)=Ф(х’’) – Ф(х’). Здесь Ф(х)=1/(корень из 2пи) * интеграл от0 до х е в степени –(z*2/2)dz – функция Лапласа, х’=(k1 – np)/(корень из npq), х’’=(k2 – np)/(корень из npq).

Вопрос 28

Двумерной называют С.В. (Х,Y), возможные значения которой есть пары чисел (x,y). Составляющие Х и Y, рассматриваемые одновременно, образуют систему двух С.В. Дискретной называют двумерную величину, составляющие которой дискретны. Непрерывной называют двумерную величину, составляющие которой непрерывны. Законом распределения Д.С.В. называют соответствие между возможными значениями и их вероятностями. Функция распределения вероятностей Д.С.В. называют функцию F(X,Y), определяющую для каждой пары чисел (х,y) вероятность того, что Х примет значение, меньшее х, при этом Y примет значение, меньшее y: F(x,y)=P(X<x,Y<y). Свойства:1) Значения функции распределения удовлетворяют двойному неравенству: 0<=F(x,y)<=1. 2) Функция распределения есть неубывающая функция по каждому аргументу:F(x2,y)>=F(x1,y), если х2>x1. F(x,y2)>=F(x,y1), если y2>y1. 3) Имеют место предельные соотношения: 1) F(-бесконечность, у)=0, 2) F(x,-бесконечность)=0, 3) F(-бесконечность, -бесконечность)=0, 4) F(бесконечность, бесконечность)=1. 4) а) при у=бесконечность функция распределения системы становится функцией распределения составляющей Х: F(x,бесконечность)=F1(x). Б) при х=бесконечность функция распределения системы становится функцией распределения составляющей У: F(бесконечность, у)=F2(y).

Вопрос 29
Вопрос 30

Корреляционным моментом СВ и называется мат. ожидание произведения отклонений этих СВ. =М((—М())*(—М()))

Для вычисления корреляционного момента может быть использована формула:

=М(*)—М()*М() Доказательство: По определению =М((—М())*(—М())) По свойству мат. ожидания

=М(—М()—М()+М()*М())=М()—М()*М()—М()*М()+М()*М()=М()—М()*()

Предполагая, что и независимые СВ, тогда =М()—М()*М()=М()*М()—М()*М()=0; =0. Можно доказать, что если корреляционный момент=0, то СВ могут быть как зависимыми, так и независимыми. Если  не равен 0, то СВ и зависимы. Если СВ и зависимы, то корреляционный момент может быть равным 0 и не равным 0. Можно показать, что корреляционный момент характеризует степень линейной зависимости между составляющими и . При этом корреляционный момент зависит от размерности самих СВ. Чтобы сделать характеристику линейной связи и независимой от размерностей СВ и , вводится коэффициент корреляции:

К=/()*() Коэффициент корреляции не зависит от разностей СВ и и только показывает степень линейной зависимости между и , обусловленную только вероятностными свойствами и . Коэффициент корреляции определяет наклон прямой на графике в системе координат (,) Свойства коэффициента корреляции.

  1. -1<=К<=1

Если К =1, то линейная зависимость между и и они не СВ.

  1. К>0, то с ростом одной составляющей, вторая также в среднем растет.

К<0, то с убыванием одной составляющей, вторая в среднем убывает.

  1. D()=D()+D()2

Доказательство.

D()=M(()2)—M2()=M(22+2)—(M()M())2=M(2)2M()+M(2)—+M2()+2M()*M()—M2()=D()+D()2(M())—M()*M()=D()+D()2

Вопрос 31

Мат. статистика опирается на теорию вероятностей, и ее цель – оценить характеристики генеральной совокупности по выборочным данным. Генеральной совокупностью называется вероятностное пространство {омега,S,P} (т.е. пространство элементарных событий омега с заданным на нем полем событий S и вероятностями Р) и определенная на этом пространстве С.В. Х. Случайной выборкой или просто выборкой объема n называется последовательность Х1,Х2,…,Xn, n независимых одинаково распределенных С.В., распределение каждой из которых совпадает с распределением исследуемой С.В. Х. Иными словами, случайная выборка – это результат n последовательных и независимых наблюдений над С.В. Х, представляющей генеральную совокупность.
Вопрос 32

Расположив элементы выборки в порядке неубывания, получим вариационный ряд х1 х2, ...-, хп. Если в вариационном ряду есть повто­ряющиеся элементы, то выборку можно записать в виде статисти­ческого ряда распределения, т.е. в виде таблицы


в которой хi'; (i= 1, 2,..., к) — это варианты (расположенные по возра­станию различные элементы выборки), а

отвечающие этим значениям частости (здесь mi — частота вариан­ты х'i, т.е. количество ее появлений в выборке). При этом, очевидно,

Кривая распределения частости - это ломаная с вершина­ми (х’i; Pi).

Выборочное среднее (4.1.1) и выборочную дисперсию (4.1.8) при этом можно вычислить по формулам



Для непрерывных случайных величин при достаточно боль­ших объемах выборки п вместо статистического ряда распределения используют интервальный вариационный ряд



где v - число интервалов одинаковой ширины h = (xn-x1)/(1+3,322lgn) 1 и хп - соответственно минимальный и максимальный элементы выборки; зна­чение h рассчитывается с числом знаков после запятой, на единицу большим, чем в исходныхданных). Границы интервалов [aj, aj+i) рас­считываются по правилу: a1=x1-h/2, а2 = а1 + h, а3 = а2 + h, ...;

формирование интервалов заканчивается, как только для конца av+1 очередного интервала выполняется условие av+1 > хп. Выборочная ча-

стость где miчисло вариант, попавших в i-й интервал

(i= 1,2, ...,v). Выборочным аналогом плотности распределения fx(x) случайной величины X служит выборочная плотность распределения

Вопрос 33

Выборочным аналогом плотности распределения fx(x) случайной величины X служит выборочная плотность распределения

при х [ai; ai+1) (i= 1, 2,..., V), ее график называется гис­
тограммой,
а ломаная с вершинами в точкахгде через
х’=(ai+ai+1)/2 обозначены середины интервалов, — полигоном частот.

Выборочное среднее и выборочную дисперсию при этом вычисляют по формулам (4.2.1), (4.2.2)

соответственно, в которых к = v.

По выборочной плотности распределения легко построить выборочную функцию распределения, при

этом линия, соединяющая точкиназывается кумулятой

Гистограмма (тонкая линия), полигон частот (полужирная линия) (а) и кумулята (б)



Вопрос 34


Вопрос 35

Прежде всего, от оценки θn хотелось бы требовать, чтобы по мере роста числа наблюдений п она стремилась к оцениваемому параметру, т.е. чтобы для любого сколь угодно малого £>0 было справедли­во предельное равенство



Также от «хорошей» оценки естественно требовать, чтобы она не содержала систематической ошибки, т.е. при любом фиксирован­ном объеме выборки результат осреднения по всем возможным вы­боркам данного объема должен приводить к точному значению па­раметра:



Наконец, от оценки θn желательно требовать, чтобы она была наиболее точной в некотором классе оценок в, т.е. имела минималь­ную дисперсию:


Вопрос 36

Статистической оценкой * неизвестного параметра теоретического распределения называют функцию f(X1,X2,…,Xn) от наблюдаемых С.В. X1,X2,…,Xn. Точечной называют статистическую оценку, которая определяется одним числом *=f(x1,x2,…,xn), где х1,х2,…,xn – результаты n наблюдений над количественным признаком Х (выборка). Несмещенной называют точечную оценку, мат. ожидание которой равно оцениваемому параметру при любом объеме выборки. Смещенной называют точечную оценку, мат. ожидание которой не равно оцениваемому параметру. Несмещенной оценкой генеральной средней ат. ожидания) служит выборочная средняя: Хв=(сумма по i от 1 до k nixi)/n, где xi – варианта выборки, ni – частота варианты xi, n=сумма по i от 1 до k ni – объем выборки.

Вопрос 37


Вопрос38

Метод моментов точечной оценки неизвестных параметров заданного распределения состоит в приравнивании теоретических моментов соответствующим эмпирическим моментам того же порядка. Если распределение определяется одним параметром, то для его отыскания приравнивают один теоретический момент одному эмпирическому моменту того же порядка. Например, можно приравнять начальный теоретический момент первого порядка начальному эмпирическому моменту первого порядка: v1=M1. Учитывая, что v1=M(X) и М1=Хв, получим М(Х)=Хв. Если распределение определяется двумя параметрами, то приравнивают два теоретических момента двум соответствующим эмпирическим моментам того же порядка. Учитывая, что v1=M(X),M1=Хв,мю=D(X),m2=Dв, имеем систему: М(Х)=Хв, D(X)=Dв.

Метод наибольшего правдоподобия точечной оценки неизвестных параметров заданного распределения сводится к отысканию максимума функции одного или нескольких оцениваемых параметров. Д.С.В. Пусть Х – Д.С.В., которая в результате n опытов приняла возможные значения х1,х2,…,xn. Допустим, что вид закона распределения величины Х задан, но неизвестен параметр , которым определяется этот закон; требуется найти его точечную оценку *= (x1,x2,…,xn). Обозначим вероятность того, что в результате испытания величина Х примет значение xi через р(xi;). Функцией правдоподобия Д.С.В. Х называют функцию аргумента : L (x1,x2,…,xn;)=p(x1;)*p(x2;)…p(xn;). Оценкой наибольшего правдоподобия параметра  называют такое его значение *, при котором функция правдоподобия достигает максимума. Функции L и lnL достигают максимума при одном и том же значении , поэтому вместо отыскания максимума функции L ищут, что удобнее, максимум функции lnL. Н.С.В. Пусть Х – Н.С.В., которая в результате n испытаний приняла значения х1,х2,…,xn. Допустим, что вид плотности распределения – функции f(x) – задан, но неизвестен параметр , которым определяется эта функция. Функцией правдоподобия Н.С.В. Х называют функцию аргумента : L(x1,x2,…,xn;)=f(x1;)*f(x2;)…f(xn;).
Вопрос 39

Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал – это интервал, который с заданной надежностью гамма покрывает заданный параметр

Интервальной оценкой (с надежностью гамма) среднего квадратического отклонения сигма нормально распределенного количественного признака Х по «исправленному» выборочному среднему квадратическому отклонению s служит доверительный интервал s(1-q)<сигма<s(1+q), при q<1; 0<сигма<s(1+q), при q>1. 3. Интервальной оценкой ( с надежностью гамма) неизвестной вероятности р биномиального распределения по относительной частоте w служит доверительный интервал ( с приближенными концами р1 и р2).
Вопрос 40

Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал – это интервал, который с заданной надежностью гамма покрывает заданный параметр. 1. Интервальной оценкой с надежностью гамма мат. ожидания а нормально распределенного количественного признака Х по выборочной средней Хв при известном среднем квадратическом отклонении сигма генеральной совокупности служит доверительный интервал: Хв – t(сигма/корень из n)<a<Хв+t(сигма/корень из n), где t(сигма/корень из n)=дельта – точность оценки, n – объем выборки, t – значение аргумента функции Лапласа Ф(t), при котором Ф(t)=гамма/2; при неизвестном сигма (и объеме выборки n<30) Хв – t гамма (s/корень из n)<a<Хв+t гамма (s/корень из n), где s-исправленное выборочное среднее квадратическое отклонение

Вопрос 41


Вопрос 42

В статистике рассматриваются гипотезы двух типов:

  1. Параметрические – гипотезы о значении параметра известного распределения;

  2. Непараметрические – гипотезы о виде распределения.

Обычно выделяют основную гипотезу – нулевую (H0). Пример: математическое ожидание признака , который распределен по нормальному закону и дисперсия его известна, а H0: M() = a. Предполагаем, что известна дисперсия Конкурирующая гипотеза имеет вид: H1: M() a;

H1: M() > a, либо H1: M() = a1. Для проверки гипотез используются критерии, и они представляют собой специальным образом подобранные СВ, k – точечный или приближенный закон, который известен.



^ Обычно предполагается, что если гипотеза Н0 выполняется, то вычисляемая по выборочным данным kнабл. Этого критерия и гипотеза Н0 принимается, если kнабл. (kкритич. левостор.; kкритич. правостор.) Если kнабл. попадает в критическую область (все остальные значения k (- ; kкритич. лев.) (kкритич. прав. ; ), то гипотеза Н0 отвергается и принимается конкурирующая гипотеза Н1. При этом возможны ошибки двух типов: Первого рода: что гипотеза Н0 отвергается, в то время, как она верна. Вероятность этой ошибки: P(H1/H0) = - уровень значимости критерия. Критерий подбирается так, чтобы была как можно меньше. Второго рода: что отвергается гипотеза Н1, в то время, как она верна. = P(H0/H1) Мощностью критерия – (1-) - вероятность попасть точке-выборке в критическое множество, когда верна конкурирующая гипотеза.

1- = P(H1/H1)

Вопрос 43

Вопрос 44

По независимым выборкам, объемы которых n1, n2, извлеченным из нормальных генеральных совокупностей, найдены исправленные выборочные дисперсии s^2*x и s^2*y. Требуется сравнить эти дисперсии.

Правило I. Для того чтобы при заданном уровне значимости α, проверить нулевую гипотезу HQ: D(X) = D(Y) о равенстве генераль­ных дисперсий нормальных совокупностей при конкурирующей гипо­тезе Ho: D (X) > D (Y), надо вычислить наблюдаемое значение критерия (отношение большей исправленной дисперсии к меньшей)



и по таблице критических точек распределения ФишераСнедекора, по заданному уровню значимости а и числам степеней свободы k1=n1—1, k2 = n2—1 (k1число степеней свободы большей исправ­ленной дисперсии) найти критическую точку FKР(a; k1, k2). Если Fнабл < Fкр— нет оснований отвергнуть нулевую гипотезу. Если Fна,л > Fкр — нулевую гипотезу отвергают.

Правило 2. При конкурирующей гипотезе Н1: D(X)D(Y) критическую точку FKP (α/2; k1 ,k2) ищут по уровню значимости а/2 (вдвое меньшему заданного) и числам степеней свободы k1 и k2 (k1число степеней свободы, большей дисперсии). Если FHАБЛ < Fкр — нет оснований отвергнуть нулевую гипотезу. Если Fнабл > Fкр — нулевую гипотезу отвергают.
Вопрос 45

Вопрос 46

Разобьем множество возможных значений случайной величины X Hav разрядов (для непрерывной случайной величины роль раз­рядов играют интервалы значений, а для дискретной — отдел ь-ные возможные значения или их группы). Выдвинем нулевую гипо­тезу Но: Fx(x) = Fтеор(x) (состоящую в том, что генеральная совокуп­ность распределена по закону Fтеор(x)) при альтернативной гипотезе Н1: Fx(x) FTeop(x). Одним из критериев согласия выборочного и тео­ретического распределений (т.е. критериев соответствия генеральной совокупности определенному закону распределения) является кри­терий X^2 (критерий Пирсона), который основывается на том, что рас­пределение статистики



(где л, — число попаданий элементов выборки в i-й разряд, п - общее число элементов выборки, apiтеop — теоретическая вероятность попа­дания случайной величины Х в i-и разряд при условии истинности нулевой гипотезы) не зависит от выдвинутой гипотезы и определяет­ся только числом степеней свободы k = vl — 1, где v — число разря­дов, аl число оцениваемых параметров. Формулы закона распреде­ления случайной величины X^2 довольно сложны, и мы их приводить не будем, но для этого распределения составлены таблицы значений X^2k;y таких, что Р{X2 < X^2k;y } = γ (табл. П. 3).

Если выбрать уровень значимости а, то надежность γ = 1 — а = Р{X2 < X^2k;y } и критическая область определяется неравенством X2 набл< X^2k;y

Обратим внимание на то, что критерий Пирсона можно использо­вать только в том случае, когда nртеор5, поэтому разряды, для кото-, рых это условие не выполняется, необходимо объединить с соседними.
Вопрос 47

С помощью методов регрессионного анализа строятся и проверяются модели, характеризующие связь между одной эндогенной (зависимой) переменной и одной или более экзогенными (независимыми) переменными. Независимые переменные называются регрессором.

Направленность связи между переменными определяется путем предварительного обоснования и включается в модель в качестве исходной гипотезы. Задача регрессионного анализа – проверка статистической состоятельности модели, если данная гипотеза верна. Регрессионный анализ не в состоянии «доказать» гипотезу, он может лишь подтвердить ее статистически или отвергнуть.

Метод наименьших квадратов (МНК, англ. Ordinary Least Squares, OLS) является одним из основных методов определения параметров регрессионных уравнений, дающий наилучшие линейные несмещенные оценки (теорема Гаусса­–Маркова).

Метод наименьших квадратов заключается в том, чтобы определить вид кривой, характер которой в наибольшей степени соответствует эмпирическим данным. Такая кривая должна обеспечить наименьшее значение суммы квадратов отклонений эмпирических значений величин показателя от значений, вычисленных согласно уравнению этой кривой:

^ Уравнение линейной регрессии. Обычно признак Y рассматривается как функция многих аргументов — x1, x2, x3, ...— и может быть записана в виде:

y = a + bx1 + cx2 + dx3 + ... ,

где: а, b, с и d — параметры уравнения, определяющие соотношение между аргументами и функцией. В практике учитываются не все, а лишь некоторые аргументы, в простейшем случае, как при описании линейной регрессии, — всего один: y = a + bx
В этом уравнении параметр а — свободный член; графически он представляет отрезок ординаты (у) в системе прямоугольных координат. Параметр b называется коэффициентом регрессии. С точки зрения аналитической геометрии b— угловой коэффициент, определяющий наклон линии регрессии по отношению к осям, координат. В области регрессионного анализа этот параметр показывает, насколько в среднем величина одного признака (Y) изменяется при изменении на единицу меры другого корреляционно связанного с Y признака X.

Коэффициенты уравнения парной линейной регрессии. В случае линейной зависимости уравнение регрессии является уравнением прямой линии. Таких уравнений два: Y = a1 + by/xX — прямое и X = a2 + bx/yY — обратное, где: a и b – коэффициенты, или параметры, которые надлежит определить.
Значение коэффициентов регрессии вычисляется по формуле:




Коэффициенты регрессии b имеют размерность, равную отношению размерностей изучаемых показателей X и Y, и тот же знак, что и коэффициент корреляции.
Коэффициенты а определяются по формуле:




^ Определение параметров парной линейной регрессии


Определение параметров линейной регрессии – одна из задач регрессионного анализа. Она решается способом наименьших квадратов, основанным на требовании, чтобы сумма квадратов отклонений вариант от линии регрессии была наименьшей. Этому требованию удовлетворяет следующая система нормальных уравнений:




Формулы для определения параметров а и b принимают следующие выражения:




Уравнение линейной регрессии можно выразить в виде отклонений вариант от их средних арифметических:




В таком случае система нормальных уравнений для определения параметров а и b будет следующая:




Система уравнений парной линейной регрессии:




Эти уравнения удобны для определения параметров при отыскивании эмпирических уравнений регрессии в практической работе для точности прогнозирования результатов.
Вопрос 49

Временным рядом будем называть таблицу, в верхней строке которой находится счетное множество моментов времени   (с постоянной дискретностью, напр. t=2, 5, 8, 11,...), в нижней - значение некоторого показателя Y. Предположим, без ограничения общности, что Y является функцией

.




Скачать файл (176.3 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации