Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Теория вероятностей и математическая статистика - файл 1.doc


Теория вероятностей и математическая статистика
скачать (683 kb.)

Доступные файлы (1):

1.doc683kb.09.12.2011 05:27скачать

содержание

1.doc

1.Понятие случайного события.

Опр. Испытанием называется фиксированный тип опыта. Пр.: Наудачу извлекается карта из колод. Опр. Случайным событием называется выделенный рез-т некоторого испытания (в конкретном испытании событие может наступать, а может и не наступать).Пр.: а) Извлечена карта красной масти; б) извлечён туз; в) извлечена 7-ка крестей. Пусть, например, извлекли даму «бубен»  а) наступила б) нет в) нет.

Классификация случайных событий.

1)Два события называются равными, если одно из них наступает т.и т.т.к. насту-пает другое. 2)Опр.: Два события назыв. равновозможными или вер-ти их насту-пления равны в смысле статистического наступления симметричных ситуаций. 3)Опр.: Событие назыв. достоверным, (Е) если оно наступает в каждом из испыта-ний. Ne=N=>P(E)=lim(Ne/N)=1 ; P(E)=14)Опр.: Событие назыв. невозможным, если оно не наступает ни в одном из испытаний. -невозможность события. Невозможность события определено одно-значно для фиксированного типа испытания. Пр.: исп. брос. кости ={7}. 5)Опр.:Два события назыв. не совместимыми, если наступление одного из них исключает наступление другого. 6) События А1, А2,…Ак – назыв. единственно возможными, если в рез-те испытания хотя бы одно из них наступает. Пр.: Исп –бросание монета. А)-орёл В)-решка. Событие А1;А2…Ак – образуют полную сист. если они попарноне совместимы и единственно возможны. Опр.: Два события образующие полную систему назыв. парой взаимно противоположных событий. (А )-противоположное событие. Пр.: Извлечение карты. А- красная масть; А- черная масть.Классическое определение вер-ти.

Опр. Пусть некоторое испытание имеет “n” исходов, причем эти исходы равно-возможны единственно возможны и попарно не совместимы. Пусть наступлению событию А благоприятствует «m» исходов из «n», тогда вер-сть Р(А) наступления события А определяется по формуле: P(A)=(m/n). Пр. В коробке 6 белых шаров и 8 красных. Извлекается 1 шар. Вер-ть того что он белый ? Реш.: n=6+8=14; m=6; P(A)=6/14=3/7.

^ 2.Статистическое определение вер-ти.

Пусть проведено n-испытаний, в которых событие А наступило m раз, тогда отношение (m/n) назыв. Частностью наступления события А в n испытаниях. Опр.: Пусть условия проведения некоторого испытания можно с точностью произвести неограниченное число раз, тогда вер-тью P(A) наступления события А в одном испытании назыв. Такое число, около которого группируются значения частности (m/n) при неограниченном увеличении числа испытаний n. ,т.е. P(A)=lim(m/n). (На практике полагают P(A)(m/n) при достаточно большом n) Следствие:

0mn; 0(m/n)1; lim0lim(m/n)lim1 ; 0P(A)1.Условия:* соят.долж.быть исходами только тех испы-й, кот.могут быть вопроизвед.неогранич.число раз при одноми томже комплексе усл.

* соб-е должно обладать статистической устойчивостью

* число испытаний должно быть достаточно велико

Пр. Студ.идёт сдаватьэкз.по т.в. «С како вер-ю он сдаст экз?правельно поставлен вопрос для опред стат.вер.? нет, нет воспроизвед.одних и тех же усл.

Пр. Студ. Сдают экз.»С какой вер-ю студ.стоящий первый в списке сдаст экз.с первого раза»
^ 3.Несовместные и совместные события. Сумма событий. Теорема сложения вероятностей (с доказательством). Пример.

Операция сложения событий. Опр.: Суммой А+В событий А и В назыв. такое со-бытие, которое считается наступившим, если наступило или событие А или В или вместе. Пр.: Извлечение карты: А- извлечен туз; В- извлечены бубны. а)Пусть рез-т: извлечена 7-ка бубен. А+В –наступило. б)Пусть рез-т: извлечен король крестей => А+В –не наступило.А+А = Е Теоремы сложения вероятностей. Общая формула: P(A+B)=P(A)+P(B)-P(AB).; В частности: Пусть А и В не совместимы, тогда АВ= ; P(AB)=P()=0 ,т.е. имеем: Теорема: Вероятность суммы двух несовместимых событий = сумме их вероятно-стей., т.е. P(A+B)=P(A)+P(B). 1)Следствие: Пусть события А1,А2,…Ак образуют полную систему, тогда Р(А1)+…+Р(Ак)=1. Док-во: В частности события А1,А2,…Ак –единственно возможны (т.к.)полная сист.), т.е. А1+…+Аn=Е => Р(А1+…+Ак)=Р(Е). По теор. слож. вер-тей: Р(А1)+…+Р(Ак)=1.II.Следствие: Если А и А –пара противоположных событий, то Р(А)+Р(А )=1.

Событие наз-ся несовместным, если наступ-ие одного из них исключает наступление какого любого другого.совместные- наоборот.
^ 4. Полная группа событий. Противоположные события. Соотношение между вероятностями противоположных событий (с выводом). Примеры.

Несколько соб-й образуют полную группу, если она явл.единственно возможными и несовместимыми исходами испытаний . Т.е.в результате испытания обязательно должно произойти одно и только одно из этих событий.

Частым случаем соб-й, образующих полную группу, явл.противоположные события. Два несовместных события, из которых одно должно обязательно произойти, называются противоположные.

Например. «выпадение герба» «решки».

Сумма ве-й противопол.событий равна 1.следует из того что противополож.соб-я образуют полную группу.

^ 5. Зависимые и независимые события. Произведение событий. Понятие условной вероятности. Теорема умножения вероятностей (с доказательством). Примеры.

Два соб-я называются незавсисимыми, если появление одного изних не меняет вер-ти появление другого.

^ Теорема Умножения вероятностей.

Т. ~Р(АВ)=Р(А)Ра(В) ~Р(АВС)=Р(А)Ра(В)Рав(С). Следствие. А и В независимы 

Р(АВ)=Р(А)Р(В), т.е. в частности вер-ть произведений 2-х независимых событий равна произведению их вер-стей. Теорема для независимых вер-тей.=> Р(В1)Р(В2)+Р(В1)Р(В2). Пр.: Два стрелка одновременно выстреливают в мишень.Вер-ть попадания для 1-го =0,6; для 2-го 0,8.; Найти: А)Вер-ть того что в мишени будет 1 пробоина. В)будет хотя бы одна пробоина. Реш.: В мишени будет 1 пробо-ина т.ит.т.к. 1-ый попал и 2-ой промахнулся, 1-ый промахнулся и 2-ой попал. А=(В1В2+В1В2)=Р(В1В2)+Р(В1В2). Используем терему для независ. вер-тей. Р(В1)=0,6; Р(В1)=1-0,6=0,4; Р(В2)=0,8; Р(В2)=0,2.; Р(А)=0,60,2+0,40,8=0,44. ХОТЯБЫ 1 => Р(с)=Р(А+D) {D-2-е попадание} P(D)=P(B1B2)=P(B1)P(B2)==0,60,8=0,48.; P(c)=0,92.
^ 6. Формулы полной вероятности и Байеса (с доказательством). Примеры.

Т.Пусть соб-я А1,А2..Аn образ-т полную группу соб-й, тогда вер-ть события F равна сумме произведений вер-ти каждого из этих событий на сообтветствующую условную вероятность F.



Док-во.



F=A1F+A2F+A3F+…+AnF

Соб-е AiF и AjF несовм. (i≠j)

По теор.+вер-ей

P(F)=P(A1F+..+AnF)=P(A1F)+..+P(AnF)=PA1)PA1(F)+..P(An)PAn(F)=Σni=1P(Ai)PAi(F) (т.к.P(AjF)=P(Ai)PAi(F))

Следствие.

Т.(ф-ла Байеса)

Пусть А1,,Аn обр-ют полную группу событий и P(F)≠0

Тогда

P(AkF)=P(Ak)Pak(F)=P(F)Pf(Ak)



Пр.Имеются 10 карточек

О

4

В

2

Л

3

Наудачу выбираем карточки

Р(ВОЛ)=2/10*4/9*3/8=1/30
^ 7. Повторные независимые испытания. Формула Бернулли (с выводом). Примеры.

Если вер-ь наступления соб-я А в каждом испытании не меняется в зависимости от исходов других, то в такия испытания наз-ся независимыми относительно соб-я А

Т.Если вер-ть р наступления соб-я А в каждом исп-ии постоянна, то вер-ть Pm,n того,что соб-е А наступит m раз в независимых испытаниях,равна

где q=1-p

Д-во.

Если + и- помен.местами,товер-ть не измен.,т.е.все элементарные исходы входящие в событие X=m имеют одну и туже вер-ть

Ко-во таких элем.исходов Cmn (из n элементов выбираются которые с +,порядок выборки не важен)т.е.

^ 8. Локальная теорема Муавра—Лапласа, условия ее применимости. Свойства функции f(x). Пример.

Т. Если вер-ть р наступления соб-я А в каждом испы-и постоянна и отлична от 0 и 1, то Pm,n того,что соб-е А наступит m раз в n независ.исыт-ях при достаточно большом числе n,приблиз.=:

ф-я Гаусса

Где

Чем больше n тем точнее вычесл.по ф-л.

причем. 1)число испытаний достаточно велико 2)npq20, где q=1-р

Свойства функции Гаусса: 1)Четность f(-x)=f(x); 2)Не отрицательность f(x)>0; 3)

lim f(x)=lim f(x)=0 {при х}; Практическое правило: если х5,то будем полагать, что f(x)0. {Далее следует график y=f(x) в виде «горки»}

^ 9. Асимптотическая формула Пуассона и условия ее применимости.

Пример.

Теорема. Пусть проведено n повторных независимых испытаний, в каждом из

которых события А наступает с вер-тью р, причем 1)число испытаний достаточно

велико (n100) 2)Величина =np10, тогда вер-ть Pm,n того, что в этих испытаниях

событие А наступит m раз вычисл. по след. приближ. ф-ле:



^ 10. Интегральная теорема Муавра—Лапласа и условия ее применимости. Функция Лапласа Ф(х) и ее свойства. Пример.

Т.: Пусть проведено n повторных независимых испытаний, в каждом из которых некоторое событие А наступает с вер-тью р, причём. 1)число испытаний достаточно велико. 2)Значение npq20. ; Тогда вер-ть того, что число m наступлений событий А в этих испытаниях окажется заключено в границах от m1 до m2 вычисляется по след. приближ. ф-ле.



Св-ва функции Лапласа.1)Нечётность Ф(-х)=-Ф(х); 2)Монотонно возрастающая Ф(х); 3)limФ(х)=1 {где х+}; limФ(x)=-1 {где х-}. На практике: если х5, полагаем что Ф(х)1 График у=Ф(х) в пределах от –1 до 1.



^ 11. Следствия из интегральной теоремы Муавра—Лапласа (с выводом). Примеры.

Пусть выполнили условие применимости интегральной теоремы М.Лапласа, тогда: 1)Вер0ть того, что число m наступлений события А в n испытаниях отличается от величины np не более, чем на эпсило (E) (по абсолютной величине) вычисл. По след. ф-ле:



2)Вер-ть того что частость (доля) m/n наступлений событий А в n испытаниях отличается от вер-ти р не более чем на  (по абсолютной величине) вычисл. По след. ф-ле:

^ 12. Понятие случайной величины и ее описание. Дискретная случайная величина и ее закон (ряд) распределения. Независимые случайные величины. Примеры.

Опр.: Случайной величиной называется переменная, кот. В рез-те испытания принимает то или иное числовое значение. Пр1)число попаданий в мишень дис-кретная случ. величина;Пр2) рост человеканепрерывная случ. величина.; Опр. Случайная величина назыв. дискретной, если число её возможных значений конечно или счётно (множество счетное, если его можно перенумеровать натур. числами).Опред. Законом распределения с.в.наз-ся всякое соотношение, устанавливающее связь между возможными значениями с.в.и соответствующими вер-тями. Для дискретной с.в.закон распр.может быть дан задан в виде табл., в виде формулы, графчески.

Xi

X1

X2



Xk

Pi

P1

P2



Pk

Следствие: Из определения закона распределения следует что события (Х=х),…,

(Х=хк) –образуют полн. Систему. => Р(Х=х1)+…+Р(Х=хк)=1 р1+р2+…+рк=1

основное св-во закона распределения.

Две с.в.наз-ся независимыми, Если закон распределения одной из них не меняется от того, какие значения приняла другая величина.
13. Математические операции над дискретными случайными величинами и примеры Построения законов распределения для kХ, Х2 , Х+Y, XY по заданным распределениям независимых случайных величин Х и Y.

Произведением kX с.в.X на постоянную величину k,наз-ся с.в.,которая принимает значения kxi с теми же вер-тями pi(i=1,2…n)

m-степенью с.в.X,т.е.Xm, наз-ся с.в., которая принимает значения xmi с теми же вер-тями pi.

Суммой (разностью или произведением) с.в.X иY наз-ся с.в.,которая принимает все возможные значения вида xi+yj (xi-yj или xi*yj), где i=1,2..n j=1..m с вероятностями pij того что с.в.X примет значение xj, а Y - значение yi

pij=P[(X=xi)(Y=yj)]

если с.в.независимы, то по теореме умножения вер-тей для независимых событий

pij=P(X=xi)·P(Y=yj)=pi·pj
^ 14. Математическое ожидание дискретной случайной величины и его свойства (с выводом). Примеры.

Опр. Математическим ожидание M(X) дискретной с.в. X наз-ся сумма произведений всех её значений на соответствующие им вер-ти

Св-ва.

1) М(С)=С, где С- пост. случ. величина.

2)М(х)=М(х); -некоторое число.

3)М(ХY)=М(X)M(Y). 4)Пусть случ. вели-чины X иY- независимы, тогда М(XY)=M(X)M(Y).

5)Пусть х1,…,хn- случ. вели-чины такие, что M(x1)=…=M(xn)=a; M((x1+…+xn)/n)=a
^ 15. Дисперсия дискретной случайной величины и ее свойства (с выводом). Примеры.

Опр.Дисперсия D(X) с.в.X наз-ся матем.ожид.квадрата её отклонения от матем.ожид.

D(X)=M(X-M(X))

Свойства.

1) D(C)=0

2) D(kX)=k2D(X)

3) D(X)=M(X2)-[M(X)]2

4) D(X±Y)=D(X)+D(Y)
^ 16. Математическое ожидание и дисперсия числа и частости наступлений события в п повторных независимых испытаниях (с выводом).

Пусть проводится исп-й, в каждом событие может произойти с вер-ю p. Наступление или не наступление события А в каждом испытании не зависит от того произошло ли оно (и сколько раз) в предыдущих испытаниях. В этом случае говорят,что имеются независимые повторные испытания.

Пусть X число наступления события А в n независ.испыт.

{ 1 соб.А произо. в i-испыт

Zi ={ 0 если нет
q=1-p

M(Zi)=0q+1p=p

M(X2i)=02q+12p=p

D(Zi)=M(Zi2)-(M(Zi))2=p-p2=p(1-p)=pq

X=Z1+Z2+…Zn

M(X)=M(Z1+…Zn)=M(Z1)+…M(Zn)=p+..+p{n раз}=np

D(X)=D(Z1+..+Zn)=D(Z1)+..+D(Zn)=pq+..pq{n раз}=npq
В частости:

X-число наступления соб-я А

Y-частота наступ.соб-я А

Y=X/n

M(Y)=M(X/n)=M(1/n*X)=1/nM(X)=np/n=p

D(Y)=D(X/n)=D(1/n8X)=1/n2D(X)=npq/n2=pq/n

Если n увеличивается то дисперсия Y уменьшается,т.е.значение Y становится ближе к своему среднему значению.
^ 17. Случайная величина, распределенная по биномиальному закону, ее математическое ожидание и дисперсия. Закон распределения Пуассона.

Опр.С.в.Х считается распределённой по бинуминарному закону с параметрами n p, если она принимает значения 0,1,2 и т.д.до n с вер-ю:



0<p<1 q=1-p

Следствия.1. Пусть Х число наступлений соб-я Ав n независ.испыт..Тогда Х распределена бинуминар. Закону с параметрами n и p

2. Пусть Х распределена бин.закону с парам n и pТогда

M(X)=np D(X)=npq

Опр. С.в.Х имеет распределение Пуассона если она принимает значения 0,1…n с вер-ю:



M(X)=λ D(X)=λ
^ 18. Функция распределения случайной величины, ее определение, свойства и график.

Опр.Функцией распределения F(x) с.в.Х, наз-ся фун-я равная вер-ти того что с.в.Х примет значение <х,F(x)=P(X<x)

Утв. Фун-я распределения любой дискретной с.в.есть разрывная ступенчатая фун-я, скачки которой происходят в точках, соответствующие возможным значениям с.в.и равны вер-тям этих значений. Сумма всех скачков фун-ии равна 1.

Св-ва:

1. 0≤F(x)≤1

2. Фун-я распр.с.в.есть неубывающая фун-ия на всей числовой оси.

3.на -∞ фун-ия равна 0, а на +∞ равна 1

4. Вер-ть попадания с.в.в интервал [x1,x2) равна приращению её фун-и распределения на этом интервале,т.е.

P(x1≤X≤x2)=F(x2)-F(x1)



^ 19. Непрерывная случайная величина (НСВ). Вероятность отдельно взятого значения НСВ. Математическое ожидание и дисперсия НСВ.

Опр.С.в.Х наз-ся непрерывной, если её фун-я распределения непрерывна в любой точке и диффиренцируема всюду, кроме ,быть может, отдельных точек.

Т. Вер-ть любого отдельно взятого значения с.в.равно 0.

Док-во. Х-нсв х1-произвол.числ

тогда P(X=x1)=0

P(X=x1)=lima-x1P(xэ[x1,a))=lima-x1(F(a)-F(x1))=lima-x1F(a)-lima-x1F(x1)=lima-x1F(a)-F(x1)=F(x1)-F(x1)=0

Следствие: P(x1≤x<x2)=P(x1<x<x2)=P(x1<x≤x2)=P(x1≤x≤x2)
M(X)=∫-∞+∞xφ(x)dx

D(x)= ∫-∞+∞(x-a)2φ(x)dx

φ(x)-плотность вероятности

^ 20. Плотность вероятности непрерывной случайной величины, ее определение, свойства и график.

Опр.Плотность вер-ти н.с.в.Х наз-ся производная её фун-и распределения.

1.плотность не отрицательна

φ(x)≥0

2. Фун-я распред.н.с.в.Х выражается через плотность вре-ти по фор-ле

F(X)=∫x-∞φ(t)dt

3. ∫+∞-∞φ(t)dt=1

4. вер-ть попадания в заданный интервал

P(x1≤X≤x2)=∫x2x2φ(t)dt
25. Понятие двумерной (n-мерной) случайной величины. Примеры. Таблица ее распределения. Одномерные распределения ее составляющих. Условные распределения и их нахождение по таблице распределения

Опр. Вектор Z=(x,y) компоненты Х и У которые яв-ся случ-ми величинами назыв-ся случайным вектором, или двумерной случайной величиной. Например: X-рост чел-ка; У-вес чел-ка  это двумерные непрерывные величины.

Для дискретных с.в.рассматривают табл.распределения:

x\Y

Y1



yn

X1

P11




P1m

:










xn

Pn1




pnm

pij=P(x=xi,y=yj)



Одномерное распр.компон.:



pi=P(X=xi)=



p’j=P(Y=yj)= =

Из одномерного распред.Х и Y двумерное распределение нельзя!Для исследования зависимости X, Y применяют условные распределения.

Опр. Пусть Х приняло значение xi. Услов.распред.Y.При усл.что Х прин.знаение xi, наз-ся условным вер-стей:



Аналогично Py=yj(X=xi)=Pij/Pj

По услов.распред опр.м.о.:



Т.о.услов.м.о. каждому значению одной компоненты ставит в соответствие услов. м.о. другой компоненты,т.е. задаёт числовую функцию на множестве значений 1ой компоненты. Эта фун-я, наз-ся фун-й регрессии.

^ 26. Ковариация и коэффициент корреляции случайных величин. Связь между некоррелированностью и независимостью случайных величин.

Для кол-енного описания связи между двум.с.в.,вводят ковариацию и коэф.корреляции.

Опр. Ковариация Kxy с.в.X и Y;наз-ся м.о.произведения отклонения этих с.в.от своих м.о.



Т.ф-ля д/выч.ковариации

Ковариация XY равна м.о.их произведения минус произ.их м.о.

Kxy=M(XY)- M(X)M(Y)

Док. Пусть M((X)=a M(Y)=b тогда



Следствие.сли X Y назависимы, то их ковариация равна нулю

К недостаткам ковариации относят то,что это размерная величина и поэтому харак-ет не только степень связи между компонентами, но и разброс значений компонентов. Поэтому вводят коэф.кор.

Опр.Коэф.кор.двух.с.в.(X,Y) наз-ся отношение их ковариации к произведению средних квадратических отклонений этих с.в.



Св-ва:1. [-1,1] -1≤ρxy≤1

2. Если X Y независ. То ρxy=0

3. Если , то между вел.X Y сущ.функциональная зависимость

При ρ=1

При ρ=1

Для того что бы найти коэф.кор.по табл.распр.двум.с.в.надо:

1.

2. найти одномер.распр.X Y

3. по одномер распр найти: M(X),M(Y),D(X),D(Y)

4.Найти коэф.кор.по ф-ле:



Заменяя в последнем выражении входящие величины на их выборочные оценки, получаем формулу для вычисления выборочного коэфф-нта корреляции r:

-выбо-

рочная ковариация, т.к. , ; ;

, «+»,если ; «-» если

.Если r>0,то связь между переменной называется прямой.Если r<0- связь называется обратной. Связь между переменными признается тесной, если |r|0,7; умеренной если 0,4|r|0,7; слабой если |r|<0,4. Основное св-во коэфф-та корреляции: |r|1.; Предельное значение коэфф-та корреляции: 1) |r|=1,т.и т.т.к. byx*bxy=1 => прямые регрессии совпадают. 2) r=0 т.и т.т.к. µ=0  byx=0 и bxy=0 => прямые регрессии перпендикулярны.; Если r=0 то говорят, что между переменными х и у отсутствует линейная корреляционная зависимость.
^ 28. Неравенство Маркова (лемма Чебышева) (с выводом). Пример.

Пусть с.в.Х принимает только неотриц.знач.и имеет м.о.. Тогда для любого положит.А, верно неравенство:

А›0

След.


^ 29. Неравенство Чебышева (с выводом) и его частные случаи для случайной величины, распределенной по биномиальному закону, и для частости события.

Т. Для любойс.в.,имеющей м.о.и дисперсию, справедливо нер.Чебышево:

где a=M(X),ε›0

Док. Обознач. a=M(X), рассмотрим Y=(X-a)2

Она прин.только не отриц. знач. M(Y)=M(X-a)2=D(X),т.е. у неё есть м.о.,след.к Y можно прим.нер-во Маркова

P(Y>)≤M(Y)/A

Возьмём A=ε2, P(Y>ε2)≤D(X)/ε2

Y>ε2след. (X-a)22



Т.о. (А) примет вид



1.с.в.Х-бинум.зак.





2.Пусть W-частота соб.в n незав.повтор.исп.

W=Xn/n Xn-сколько раз произош.соб





3.Пусть X1..Xn-незав.с.в., M(X)=ai D(X)≤C

Тогда


^ 30. Неравенство Чебышева для средней арифметической случайных величин (с выводом).

Т.Бенулли Частость события в n независимых испытаниях, в каждом из которых оно может произойти с одной и тойже вер-ю p,при неограниченном увеличении числа n сходится к вер-ти p этого соб-я в отдельном исп-и



Или

Вытекает из нер-ва Чебышева для частости собятия:










^ 31. Теорема Чебышева (с доказательством), ее значение и следствие. Пример.

Пусть с.в.Х1..Хn имеют одинаковое м.о. а и дисперсия ограниченна одной и той же постоянной С,тогда верно:

M(Xi)=a D(Xi)≤C тогда



Вытекает из нер-ва Чебышева для частости собятия:

Смысл: При большом числе Х с.в. Х1…Хn практически достоверно, что их сред.ариф., которая явл.с.в.сколь мало отличается от конкретного числа a, т.е.практически перестаёт быть с.в..

Т.Чеб.принято наз.законом больших чисел. –это общ. принцип согласно кот.действия большого числа случ.факторов при весьма общих условиях приводит к результату почти независищяму от случая.


^ 32. Закон больших чисел. Теорема Бернулли (с доказательством) и ее значение. Пример.

Т.Бенулли Частость события в n независимых испытаниях, в каждом из которых оно может произойти с одной и тойже вер-ю p,при неограниченном увеличении числа n сходится к вер-ти p этого соб-я в отдельном исп-и



Или

Вытекает из нер-ва Чебышева для частости собятия:









Смысл: При большом числе n практически достоверно, что частость собятия m/n величина случайная ,как угодно мало отличается от неслуч.вел. p-вер-ти соб-я,т.е.практически перестаёт быть слууч.

Т..принято наз.законом больших чисел. –это общ. принцип согласно кот.действия большого числа случ.факторов при весьма общих условиях приводит к результату почти независищяму от случая.
^ 33. Вариационный ряд, его разновидности. Средняя арифметическая и дисперсия ряда. Упрощенный способ их расчета.

Пусть имеется некотор. признак Х,котор. подлежит изучению. Значение признака х назыв. их вариантами. Рассмотрим совокупность элементов – носителей признака. Кол-во элементов назыв. объемом совокупности. ; Если признак х принимает изоли-рованные значения, то он назыв. дискретным, если знач. Признака заполняют нек. интервал, то он интервальный. Пример: Х- размер обуви  дискретный признак; Х- ростинтервальный признак. Кол-во элементов совокупности, кот обладает данными значениями признака назыв. частотой этой варианты. Суммы всех частот = n. ni=n; (ni/n)=Wi.; Опр.: Вариационным рядом называется таблица, содержащая варианты в порядке возрастания и соответствующие им частоты или частости. Вариационный ряд – дискретный если варианты дискретны. Если признак принимает непрерывные значения, то интервал его значения разбив. на частности соответствующими частотами или частостями – такой ряд –интервальный.

Характеристики вариационного ряда.

1) Среднее значение Ср. знач. вар. ряда явл. аналогом мат. ожидатия

случайной величины.; 2) Диспер. вар. ряда явл аналогом дисперсии случ. величины.; 3)Среднеквадратич. Отклонения   =из квадрат.; Упрощённый метод вычисления хар-к вариацион. ряда. Пусть К- разность между сосед-ними значениями варианта. С- это наиболее часто встречающаяся варианта или варианта, стоящая в середине ряда.

34. Генеральная и выборочная совокупности. Принцип образования выборки. Собственно-случайная выборка с повторным и бесповторным отбором членов. Репрезентативная выборка. Основная задача выборочного метода.

Вся подлезащая изучению совокупность объектов (наблюдений) наз-ся генеральная совокупность. В матем.стат.понятие ген. совокуп.трактуется как совокуп.всех мыслимых наблюдений,которые могли бы быть произведены при данном комплексе условий. Понятие ген.сов.в определённом смысле аналдогично понятию с.в..Та часть объектов,которая отобрана отобрана для непосредственного изучения из ген.сов.,наз-ся выборочной совок. или выборкой.Сущность ывборочного метода состаит в том что бы по некоторой части ген.сов.(по выборке) выносить суждения о её св-вах в целом.Собственно-случювыб., оброзуется случ.выборром элементов без расчленения на части или группы.

Повторный-когда каждый элемент,случайно отобранный и обследованный, возвращается в общую совокуп.и может быть повторно отобран.

Бесповтор.-наоборот

Выб наз-ся репрез.если она достат.хор.воспроизвод.ген.совок.


^ 35. Понятие об оценке параметров генеральной совокупности. Свойства оценок: несмещенность, состоятельность, эффективность.

Пусть с.в.Х образует ген.совокупность.У неё есть свой закон распределения,не известный нам..X Y-числовые характеристики. M(X),D(X) –парам.зада-е её зак.распр.(это некоторые числа не с.в.) M(X) –ген.средняя D(X)-ген.диспер. p –ген.доля(вер-ть того что х обладает некотор.св-вом,это не с.в.)

Эти неизвестные числа будут образовывать выборку. Х1…Xn выборка. Хi-распределеа так же как Х.Хi-с.в.

Задача состоит в том,чтобы по данным выборки,кот.явл.случ. оценить параметры ген.совок., которые случ.не явл.

Θ-некоторый параметр ген.сов.

Опр.оценкой параметра θ явл.любая функция выборки



-оценка параметра θ1

-с.в.её распред.связано с распред.с.в.Х

Опр.Оценка парам.θ наз-ся несмещённой,если её м.о.=оцениваемому парам.



Смещ.-если наоброт.

Опр.оценка пар.θназ-ся состаят.,если для неё выполняется закон больших чисел.



Опр.несмещ.оценка пар-ра θ, наз-ся эффективной,если она имеет наименьшую дисперсию среди всех возмож.несмещ.оценок пар-ра θ вычисл.по выборкам одного и тогоже объёма n

Несмещ.оценки означ.,что при большом числе выборкиполуч.оценки будут.группироваться твокруг истинного знач.θ
^ 36. Оценка генеральной доли по собственно-случайной выборке. Несмещенность и состоятельность выборочной доли.

Т. Выбор.доля w=m/n повторной выбоки есть несмещ.и состоят.оценка ген.доли p=M/N,причём её дисперсия

Т.Выб.доля w=m/n беспов. выборки есть несмещ.и состоя.оценка ген.доли p=M/N

причём её дисперсия

q=1-p M(w)=p

Т.к. вер-ть того,что любой в выбоку эл-т обладает признаком А,есть ген.доля р,то из M(w)=p след.что частость или выб.доля w есть несмещённая оцека ген.доли р.

Оценка w=m/n состаятельна если

^ 37. Оценка генеральной средней по собственно-случайной выборке. Несмещенность и состоятельность выборочной средней.

Т.выб.сред. повтор.выб. есть несмещ.и состоят.оценка ген.сред. 0 причём

Несмещ.:

Пусть Рассмотрим дисперсию оценки д /пов.выб.

Т.о.D() при след.состоят.

Т.выб.сред. беспов.выб.есть несмещ.и состоят.оценка ген сред 0 причём



^ 38. Оценка генеральной дисперсии по собственно-случайной выборке. Смещенность и состоятельность выборочной дисперсии (без вывода). Исправленная выборочная дисперсия.

Т.Выб.диспер.s2 повторной и беспов.выб.есть смещённая и состоят.оценка ген.дисп.σ2





Т.к.выб.диспер.всегда заниж. Ген.диспр.и рассматривают исправленную выб дисп.,явл.несмещ.и состоят.оценкой ген.дисп.



39. Понятие об интервальном оценивании. Доверительная вероятность и доверительный интервал. Предельная ошибка выборки. Ошибки репрезентативности выборки (случайные и систематические).

Рассматривание парам-ов θ одним числом.такие оценки называют точечными.для того что бы понять насколько близко истин.знач.пар-а от его точечной оценки.

Опр.Интервальной оценкой пар-ра θ наз-ся числовой интервал , который с заданной вер-ю γ накрывает неизвестное значение параметра θ. Этот интервал называется доверительным, а вер-ть γ-доверит вер-ть.

Наибольшее отклонение оценки от оцениваемого параметра θ,в частности,выб.сред.(доли)от ген вред(доли)которое возможно с заданной дов.вер-ю γ,наз-ся предельной ошибкой выборки.

Ошибкаявл.ошибкой репрез. выборки.она возникает только вследствии того что исследуется не вся совокуп.а лишь часть её(выборка), отобранная случайно.(наз-ют случайн.)систематич.возникает в результате нарушения принципа случайности при отборе элементов в выборку

Дов.интр.д/ген.сред.:



40. Формула доверительной вероятности при оценке генеральной доли признака. Средняя квадратическая ошибка повторной и бесповторной выборок и построение доверительного интервала для генеральной доли признака.

Вер-ть того что отклонение выборочной доли по апсолютной величине не привзойдёт числа ,равна



Где F-функция Лапласа, w-ген.доля p

Этот результат основывается на централ.пред.теор. В формуле D(w)есть неизв.пер. поэтому пользуемся приближ ф-ми. Сред.квад.ошибка



Доверит.интревал для доверит.доли может быть постр.по:

41. Формула доверительной вероятности при оценке генеральной средней. Средняя квадратическая ошибка повторной и бесповторной выборок и построение доверительного интервала для генеральной средней.

Вер-ть того что отклон. ген. сред. от a не привзойдёт по апсол.вел.числа где Ф-лап.

Это резул.следств.цен..пред.т.

В формуле есть неизв. перем. ,поэтому пользуются приближ. Сред.квад.ош.:



Доверит.интревал.надёжности γ для ген.сред.может быть найден:




^ 42. Определение необходимого объема повторной и бесповторной выборок при оценке генеральной средней и доли.

Для опред.n необход.задать надёжность оценки γ(дов.вер-ть) и точность Δ(пред.ош. выборки).

Для повтор.выб.при оценке ген. Сред.с надёжностью γ фор-ла для нах.объёма выборки имеет вид:



Где

Для беспов.

При оценке ген.доли для пов.выб.

Беспов.

Если найден объём повтор выб. n то объём соответствующей беспов. по фор-ле:

^ 43. Статистическая гипотеза и статистический критерий. Ошибки 1-го и 2-го рода. Уровень значимости и мощность критерия. Принцип практической уверенности.

Стат.гип.наз-ся предполож. о пар-ах или виде неизвестного закона распред. Н0-проверяемая гипотеза

Д/проверки стат.гип.испо-ся выборочная хара-ка (x1..xn) полученная по выборке (x1..xn) распределение которой известно. По этому выборочному распределению определяются θкр-критическое значение. Если гип.Н0 верна, то вер-ть Р(кр)=α мала;т. о.согласно принцыпу практической уверенности события Р можно считать практически невозмож. Соответвенно наоборот.

Правило по которому гип.Н0 отвегается или принимается наз-ся статич.критерием. Если была отвегнута верная гипотеза, то это ошибка 1-рода.Если принята неверная гип.- 2-рода.

Вер-ть допустить ошибку 1-рода наз-ся уровнем значимости. Вер-ть не допустить ошибку 2-рода наз-ся мощностью критерия. Принцып практической уверенности говорит, что при однократном повторении собятия имющие маленькую вер-ть не происходит.

^ 44. Построение теоретического закона распределения по опытным данным. Понятие о критериях согласия.

Д/установления теоретич. Закона распред. Случ.вел., хар-щей изученный признак по опытному распределению, необходимо определить вид и параметры зак.распр.

Предположение о виде закона распр.может быть получено из графического изображения эмпирического арспред., опыта аналогичных прдщесвующих иследовани. И т.д.

Параметры распределения обычно неизвестны,поэтому их заменяют наилучшими оценками по выборке. Обычно между эмпир.и теор. распред.неизбежны расхождения.Эти расхож.могут быть случ.из-за огранич.числа наблюдений, а могут быть из-за того, что теор.закон распр. подобран неудачно. Чтобы проверить гипотезу о предпологаемом законе распр. сущ.критерии согласия.

Пусть требуется проверить гип. Н0 что ислед.вел. Х подчиняется определённому закону распр.Чтобы проверить Н0 выбираем с.в. U, которая хар-сет степень расхождения теор.и эмпир.распред. Закон распред.которой известен и не зависит от закона распред.Х. Знач.закон распр.Uможно найти Р(U≥u)=а u-с.в.фактич. наблюд.в опыте.Если Р мала, то Н0 отвергают в соответствии с принцыпом практической уверенности. Если Р не мала то считают, что Н0 не противоречит опытным данным.

^ 45. Критерий согласия- Пирсона и схема его применения.

Пусть имеется теор.закон распр. р1,р2..рn Значения х1,х2..хnсгрупированны по m интервалам. Есть выборка объёма n: n1,n2..nm;

Пусть проверяется гип.о выбранном виде закона распр.с.в.

1.Расчитывается мера расхождения между наблюденными частотами и теор. Частотами x2 по фор-ле:



2.Д/данного уровня значимости α по табл. Х2-распр.нах-ся крит.знач. при числе степеней свободы k=m-r-1

3.Если х2> то гип.Н0 отвергается, а если х2то нет основания отказываться от теор.закона распр.

^ 46. Функциональная, статистическая и корреляционная зависимости. Различия между ними. Основные задачи теории корреляции.

1.Функ.зависимость означает, что по значению одной величиныоднозначно определяется значение другой величины.

2.При статич.зависимости каждому значению одной величины соответствует закон распред.другой величины. Пр:х-кол-во весённых удобрений у-урожайнойть

х и у связаны,но зависят ещё и от случ.факторов

д/изучения статич.зависимости

3.Корреляционной зависимостью между двумя переменными величинами наз-ся функциональная связь между значениями одной из них и условными математическими ожиданиями другой

Mx(y)=φ(x) My(x)=ψ(y)

Основные задачи корреляционного анализа – выявление связи между случайными переменными и оценка тесноты связи.







Скачать файл (683 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации