Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Шпаргалка - Теория вероятностей и математическая статистика - файл Шпоры финалка.doc


Шпаргалка - Теория вероятностей и математическая статистика
скачать (161.1 kb.)

Доступные файлы (1):

Шпоры финалка.doc619kb.12.01.2010 01:34скачать

содержание

Шпоры финалка.doc

1.Случайные события,их классиф.Операции со случ событиями. Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Каждое случайное событие есть следствие действия многих случайных причин Таким образом, события будет рассматривается как результат испытания.Классификация случайных событий. Полной группой событий называются несколько событий таких, что в результате опыта непременно должно произойти хотя бы одно из них. События: 1.совместные,несовместные(неск несовм события – попарно несовместн)2.достоверные,невозможные,случайные3.противоположные.4...События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое.5.элиментарн событие-несовм единственновозм обяз исходы испыт,такие,что мн-во….,а др события 0неко подмнож-во. Операции.1.А влечет за соб Б(при А обяз наступ В)если А и В влекут друг-друга,=> равны 2.Сумма-объедин.3.ПРоизвед – пересечение.4.Разн. А –В – Наступ только А,В не наступ.св-ва опер-й 1.Коммутат(перестан)2.Ассоциативн -3 и переест скобок.3.Дистрибут А(В+С)= АВ+АС Доп св-ва: 1.А +противоп = Достов.ПРоизвед – невозможн соб-е.2.
А+дост=дост , А × дост= А , А+Ø=А ,А× Ø = Ø 3.А+А =А. А×А=А


2.классич, статистич и геометрич опр-е вер-ти .Классическая формула вероятности Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой P(A) = m/n, где m-число элементарных исходов, благоприятствующих А; n-число всех возможных элементарных исходов испытания. Здесь предполагается, что элементарные исходы не совместны, равновозможные и образуют полную группу. Из определения вероятности вытекает следующие свойства: 1.Вероятность достоверного события равна единице. 2.Вероятность невозможного события равна нулю. 3.Вероятность случайного события есть положительное число, заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испытания. В этом случае 0<m<n, значит, 0 <m/n<1, следовательно, 0<P(A)<1. Итак, вероятность любого события удовлетворяет двойному неравенству 0 <= P(A)<= 1.

Чтобы преодолеть недостаток классического определения вероятности, состоящий в том, что оно неприменимо к испытаниям с бесконечным числом исходов, вводят геометрические вероятности -вероятность попадания точки в область(отрезок, часть плоскости и т.д.). Пусть отрезок l составляет часть отрезка L. На отрезок L на удачу поставлена точка. Это означает выполнение следующих предположений: поставленная точка может оказаться в любой точке отрезка L, вероятность попадания точки на отрезок l пропорциональна длине этого отрезка и не зависит от его расположения относительно отрезка L. В этих предположениях вероятность попадания точки на отрезок l определяется равенством. P= Длинаl/длинаL Класс Опр-е предполагает,что все элемент исходы равновозможны.Задач ,в кот можно исходить из таких соображ-й мало.т.к. трудно утсатовить,что исходы равновозможны.(относит) частота события – отнош числа опытов,в кот появ это сбыт,к общ чисул опытов.

Св-ва:1.от 0 до 1. 2.частота (достоверн) =1.3.W(Ø)=0.4.част 2 несовм событий = сумме частот 2х несовм событий.W(A+B)=W(A)+W(B) .Облад св-вом стат устойч.Стат Вер-ть события-число,ок кот группир знач-я частоты данн события в различн сериях больш числа испытаний.Св-ва: 1.вер-ть(дост)=1.2.невозм – 0.3.случ- между 0 и 1.4. W(A+B)=W(A)+W(B)

3.Элементы комбинаторики: размещения, перестановки и сочетания (вывод формул). Свойства сочетаний.

Комбинатор. Изуч спос подсчета числа эл-в в конечн множ-х. Ф-лы исп при вычисл вер-й.Перестан-ки –множ-ва, сост из один эл-в и отлич порядком.число перестан – 0!=1 .Размещ-мн-во,сост из n различн эл-в по m эл-в ,кот отлич либо сотавом эл-в ,либо их порядком. сочет из nразл эл-в по m -мн-ва,содерж m эл-в из числа n данных,и кот отлич хотя бы 1 эл-м . ^ Т о кенечн множ-х:Число всех подмонж=в множ-ва,сост из n эл-в, равно , Числа переест и размещ-й связ рав-вом . Число Размещ-й по m эл-в с повтор из n эл-в равно )c повт.= .Число сочет с поатор из n эл-в по m)повт = Правила комбинатор. 1.Прав суммы. :если нек объект А может быть выбран их множ-ва m способами, а друг В – n способами, то В или А – m+n спос.2.Прав произвед. Если объект А можно выбрать из множ-ва объектов m спос и после кажд так выбора В можно выбрать n спос,то пара объектов(А,И) в указ порядке может быть выбр m×n спос

Вывод формул и св-а сочет-й

  1. С катое в степени 0 = С катое в степ к =1

  2. С катое в первой = к

3.

Доказательство.

4 .().

Доказательство.

Последнее свойство позволяет описать процедуру последовательного получения числа сочетаний при различных значениях n и k.

Используя последнее свойство, можно представить число сочетаний в виде так называемого треугольника Паскаля.


4. Совместные и несовместные события. Теоремы сложения вероятностей.

Суммой А + В двух событий А и В называют событие, состоящее в появлении события А, или события В, или обоих этих событий другими словами логическое ИЛИ. В частности, если два события А и В - несовместные, то А + В - событие, состоящее в появлении одного из этих событии, безразлично какого. 1.Теорема сложения вероятностей 2х событий. Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления.Р(А+В)=Р(А)+Р(В)-Р(А*В) 2.теор.слож-я вероятн-й 2х несовместн событий .Р(А+В)=Р(А)+Р(В) 3.теор. слож-я вероятностей n несовм событий P( сумма А итых) = сумма n- вероятностей А событий.сумма вер-й противоп событий равна 1

5.Зависимые и независимые события. Условная вероятность. Теоремы умножения вероятностей.

1) Условная вероятность события А при условии В равна Р(А/B)=P(A*B)/P(B), Р(В)>0. 2) Событие А не зависит от события В, если Р(А/B)=P(A). Независимость событий взаимна, т.е. если событие А не зависит от В, то событие В не зависит от А. В самом деле при Р(А)>0 имеем Р(B/A)=P(A*B)/P(A)=P(A/B)*P(B)/P(A)=P(A)*P(B)/P(A)=P(B). Вытекает следующая формула умножения вероятностей: Р(А*В)=Р(А)*Р(В/A). Для независимых событий вероятность произведения событий равна произведению их вероятностей: Р(А*В)=Р(А)*Р(В). 3) События А1,А2,…,Аn образуют полную группу событий, если они попарно несовместны и вместе образуют достоверное событие, т.е. Аi*Aj=0, i не=j, U по i от 1 до n Аi=омега.

Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило: Р(АВ)=Р(А)*Ра(В). В частности для независимых событий Р(АВ)=Р(А)*Р(В), т.е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий.


^ 6.Вероятность наступления только одного, хотя бы одного события.Пусть в результате испытания могут появиться n событий, независимых в совокупности, либо некоторые из них (в частности, только одно или ни одного), причем вероятности появления каждого из событий известны. Как найти вероятность того, что наступит хотя бы одно из этих событий? Например, если в результате испытания могут появиться три события, то появление хотя бы одного из этих событий означает наступление либо одного, либо двух, либо трех событий. Ответ на поставленный вопрос дает следующая теорема.Теорема. Вероятность появления хотя бы одного из событий А1 , А2 , ..., Аn , независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий
Р (A) = 1 — q1q2 ... qn.(*)

Ч а с т н ы й   с л у ч а й. Если события А1 , А2 , ..., Аn имеют одинаковую вероятность, равную р, то вероятность появления хотя бы одного из этих событий (A) = l — qn. (**)Док-во

Обозначим через А событие, состоящее в появлении хотя бы одного из событий А12, ...,An. События А и


(ни одно из событий не наступило) противоположны, следовательно, сумма их вероятностей равна единице:



Отсюда, пользуясь теоремой умножения, получим



или



Вероятность появления хотя бы одного из событий А1, А2,…,Аn независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий, т.е.

 

^ 7.Формула полной вероятности и формула Байеса.
Пусть событие А может появиться вместе с одним из образующих полную группу попарнонесовместных событий Н12…Нn называемых гипотезами, тогда вероятность события А вычисляется как сумма произведений вероятностей каждой гипотезы на вероятность события А при этой гипотезе

Формула Бейса Пусть имеется полная группа попарнонесовместных гипотез Н12…Нn с известными вероятностями появления. В результате проведения опыта появилось некоторое события А, требуется переоценить вероятности гипотез при условии, что событие А произошло



8. Повторные независимые испытания. Формула Бернулли.  

Рассмотрим случай многократного повторения одного и того же испытания или
случайного эксперимента. Результат каждого испытания будем считать не зависящим
от того, какой результат наступил в предыдущих испытаниях. В качестве результатов
или элементарных исходов каждого отдельного испытания будем различать лишь две
возможности:
1) появление некоторого события А;
2) появление события , (события, являющегося дополнением А)
Пусть вероятность P(A) появления события А постоянна и равна p (0<.p<1).
Вероятность P() события обозначим через q: P() = 1- p=q.
. Если производится несколько испытаний, причем вероятность события А в каждом испытании не зависит от исходов других испытаний, то такие испытания называют "независимыми относительно события А"(Событие А имеет одну и ту же вероятность) "Сложное событие"- совмещение нескольких отдельных событий, которые называют "простыми". Пусть производится n независимых испытаний, в каждом из которых событие А может появиться либо не появиться. Теорема. Если производится n независимых опытов в каждом из которых событие А появляется с одинаковой вероятностью р, причем то тогда вероятность того, что событие А появится ровно m раз определяется по формуле.

формула Бернули применяется в тех случаях, когда число опытов невелико, а вероятности появления достаточно велики.

^ 9Наивероятнейшее число появления события (вывод неравенства). Вероятность можно рассматривать как функцию целочисленного аргумента m.Существует такое значение аргумента , при котором эта функция принимает наибольшее значение

np-mp>mq+q m(q+p)<np-q, где q+p=1 m<np-q Вывод при таких m при таких m функция возростает. И наоборот при m>np-q

, то есть при таких m функция убывает, то есть действителен один при котором функция достигает max значенияПо смыслу должны выполняться два неравенства



Распишем 2-е неравенство



(9) (продолжение)Наивероятнейшее число появления события при независимых испытаниях:

, - вероятность появления события при одном испытании.

^ 10.Локальная и интегральная теоремы Муавра-Лапласа.

Локальная

Если вероятность наступления события А в каждом из n независимых испытаний равна p (p0, p1), а число испытаний достаточно велико, то справедлива формула:



где- малая функция Лапласа

Замечание: формула 2 исп, когда n10, np>10

Интегральная.

Если число повторных независимых испытаний достаточно велико, вероятность появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность того, что в этих испытаниях событие А появится число раз, заключенное в границах [a;b], может быть посчитана по формуле:

Свойства функции Лапласа:







Функция нечетная, возрастающая

X>4, Ф(х)=1 Следствие из интегральной теоремы Муавра-Лапласа. Если число повторных независимых испытаний достаточно велико, вероятность появления события А в каждом испытании постоянно и отлично от нуля и единицы, то вероятность того, что число появлений события А отклонится от произведения np не больше, чем на некоторое положительное число r по модулю, может быть посчитано по формуле



11.Вероятность отклонения частоты от наивероян.

12.Теорема Пуассона (вывод формулы).
Теорема Пуассона.



 Эта теоре­ма дает пуассоновское приближение биномиального распределения и обычно используется при  p<0,1  и  npq 9 .

13.Дискретная случайная величина. Многоугольник распределения. Операции со случайными величинами,пример.Опытом называется всякое осуществление определенных условий и действий при которых наблюдается изучаемое случайное явление. Опыты можно характеризовать качественно и количественно. Случайной называется величина, которая в результате опыта может принимать то или иное значение., причем заранее не известно какое именно. Случайные величины принято обозначать (X,Y,Z), а соответствующие им значения (x,y,z)

Дискретными называются случайные величины принимающие отдельные изолированные друг от друга значения, которые можно переоценить. Непрерывными величины возможные значение которых непрерывно заполняют некоторый диапазон. Законом распределения случайной величины называется всякое соотношение устанавливающее связь между возможными значениями случайных величин и соответствующими им вероятности. Ряд и многоугольник распределения. Простейшей формой закона распределения дискретной величины является ряд распределения. Графической интерпретацией ряда распределения является многоугольник распределения.
14.Функция распределения дискретной случайной величины, ее свойства и график

Для непрерывных случайных величин применяют такую форму закона распределения, как функция распределения. Функция распределения случайной величины Х, называется функцией аргумента х, что случайная величина Х принимает любое значение меньшее х (Х<х) F(х)=Р(Х<х) F(х) - иногда называют интегральной функцией распределения или интегральным законом распределения. Функция распределения обладает следующими свойствами:

  1. 0<F(х)<1

  2. если х12,то F(х1)>F(х2)



функция может быть изображена в виде графика. Для непрерывной величины это будет кривая изменяющееся в пределах от 0 до 1, а для дискретной величины - ступенчатая фигура со скачками.С помощью функции распределения легко находится вероятность попадания величины на участок от α до β Р(α<х<β) рассмотрим 3 события

А - α<Х,В - α<Х<β,С - Х<β.С=А+В,Р(С)=Р(А)+Р(В),

Р(α<х<β)=Р(α)-Р(β)

15.Математическое ожидание дискретн случайной величиныи его св-ва. Математическим ожиданием случайной величины х (M[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений. Для дискретной случайной величины



Для непрерывной



С механической точки зрения мат. Ожидание это абсцисса центра тяжести системы точек расположенных по одноименной оси. Размерность мат. Ожидания совпадает с размерностью самой случайной величины. Математическое ожидание случайной величины всегда больше наименьшего значения и меньше наибольше

16.Дисперсия дискретной случайной величины и ее свойства. Среднее квадратичное отклонение. Размерность дисперсии и среднеквадратичного отклонения.



^ Дисперсией случайной величины называют математическое ожидание квадрата отклонения случайной величины от ее математического ожидания:

Дисперсию удобно вычислять по формуле

Свойства дисперсии:

^ Средним квадратическим отклонением случайной величины называют квадратный корень из ее дисперсии:




17.Биномиальный закон распределения и его числовые характеристики (вывод формулы).

Пусть проводится n независимых испытаний. В результате каждого из которых возможны 2 исхода: А – успех с вероятностью p, или - неуспех с вероятностью q = 1-p. Тогда вероятность числа m успех

Дискретная случайная величина X, которая может принимать только целые неотрицательные значения с вероятностями P (X=m)= , где p>0, q>0, m 0,n называется распределенной по биноминальному закону с параметром p.

Мат.ожидание M(X)= np

Дисперсия



D(x)=

- среднее квадратическое отклонение

18.Закон Пуассона и его числовые характеристики (вывод формулы). Простейший поток событий.

Когда требуется спрогнозировать ожидаемую очередь и разумно сбалансировать число и производительность точек обслуживания и время ожидания в очереди. Пуассоновским называют закон распределения дискретной случайной величины Х числа появления некоторого события в n-независимых опытах если вероятность того, что событие появится ровно m раз определяется по формуле.

a=np

n-число проведенных опытов

р-вероятность появления события в каждом опыте

В теории массового обслуживания параметр пуассоновского распределения определяется по формуле

а=λt , где λ - интенсивность потока сообщений t-время

Необходимо отметить, что пуассоновское распределение является предельным случаем биномиального, когда испытаний стремится к бесконечности, а вероятность появления события в каждом опыте стремится к 0. Пуассоновское распределение является единичным распределением для которого такие характеристики как мат. Ожидание и дисперсия совпадают и они равны параметру этого закона распределения а.


19.Геометрическое и гипергеометрическое распределения и их характеристики (вывод формулы).1. Геометрическое распределение. Пусть производятся независимые испытания, в каждом из которых вероятность появления события А равна р       (О < р < 1) и, следовательно, вероятность его не появления q = 1 - р. Испытания заканчиваются, как только появится событие А (т.е. количество испытаний неограниченно). Таким образом, если событие А появилось в k-м испытании, то в предшествующих k1 испытаниях оно не появлялось. Обозначим через X дискретную случайную величину -  число испытаний, которые нужно провести до первого появления события А. Очевидно, возможными значениями Х являются натуральные числа: 1, 2, 3… Пусть в первых k—1 испытаниях событие А не наступило, а в k-м испытании появилось. Вероятность этого «сложного события», по теореме умножения вероятностей независимых событий,

Полагая k=1, 2, ... в формуле , получим геометрическую прогрессию с первым членом р и знаменателем q

^ По этой причине распределение  называют геометрическим. Легко убедиться, что ряд  сходится и сумма его равна единице. Действительно, сумма ряда есть сумма членов бесконечной геометрической прогрессии со знаменателем меньшим единицы, тогда сумма его :

Замечание: если количество испытаний ограничено каким- либо натуральным числом k , то последнее значение вероятности в ряде распределения будет равно qk-1 , означающее, что в предыдущих k-1 испытаниях событие А не появилось. 2.Гипергеометрическое распределение.Многие задачи комбинаторики могут быть сведены к следующей модели. В генеральной совокупности из n элементов имеется элементов красного цвета и черного. Случайным образом выбирается группа из r элементов. Найдем вероятность того, что так выбранная группа будет содержать ровно k красных элементов. Здесь k может быть любым целым числом между нулем и наименьшим из чисел и r.


Для того, чтобы найти , заметим, что выбранная группа состоит из k красных и r-k черных элементов. Красные элементы могут быть выбраны различными способами, а черные способами. Так как любой выбор красных элементов может комбинироваться с любым выбором черных, имеем … (1).Определенный таким образом набор вероятностей называется гипергеометрическим распределением. Используя формулу можно переписать (1) в виде

… (2).

Замечание. Вероятности определены только для k, не превосходящим r или , но, так как при b>a , из формулы (1) и (2) следует, что = 0, если либо k>, либо k>r. Следовательно, определения (1) и (2) могут использоваться для всех при условии, что соотношение = 0 интерпретируется как невозможность такого выбора.

Примеры.
Проверка качества. При контроле качества продукции выборочной проверке подвергается партия из n изделий. Дефектные изделия в партии играют роль красных элементов. Их число , конечно, не известно. Производится выборка объема r и определяется число k дефектных изделий в ней. Тогда формула (1) позволяет нам сделать выводы относительно истинного значения .


20.Функция распределения непрерывной случайной величины и ее свойства. График функции распределения НСВ.Функцией распределения называют функцию Р (х), определяющую для каждого значения х вероятность того, что случайная величина Х примет значение, меньшее х, т. е.

F(х)=Р(Х<х).Часто вместо термина «функция распределения» используют термин «интегральный закон распределения». свойства:



21. Плотность распределения вероятностей непрерывной случайной величины и ее свойства.

Судить о хар-ре распр-ия в небольшой окрестности точек числ. оси позвол-т плотность распределения вер-ей. Рассм-м НСВ Х с интегр.непр-но диф-ой ф-ией распр-ия F(x).

Вер-ть попад-ия этой вел-ны в интервал (х,х+∆х) равна Р(х<X<x+∆x)=F(x+∆x)-F(x).

Вер-сть, к-рая находится на ед-цу длины рассмарт-го интервала: (Р(х<X<x+∆x))/∆x=(F(x+∆x)-F(x))/∆x.

Если мы перейдем к пределам, то получим вер-ть, кот. прих-ся на изолиров-ую точку Х: Пл-тью распр-ия вер-тей (диф.фун-ей распр-ия) наз-ся первая производная интегр. ф-ции распр-ния F(x):

f(x)=F’(x).

График ПР вер-тей – кривой распр-ия CВ Х.

Cв-ва ПР:

1.f(x)≥0 для люб.x – cв-во неотриц-ти.



3. -

Cв-во нормировки.




22.Математическое ожидание и дисперсия непрерывной случайной величины.

НСВ- св которая может принять любое значение из некоторого конечного или бесконечного интнрвала.



Геом.смысл: абсцесса центра тяжести криволин. трапеции огранич. графиком кр. распред-ия полигоном распред для ДСВ и Ох.

D(X)=M(X-M(X))2

σ (Х)= D(X)1/2

D(X)= M(X)2-M2(X)

23.Равномерный закон распределения и его числовые характеристики.

Непр. случ. велич.х распред. равномерно на

отрезк [а;b], если её плотность вероятности

р(х) постоянна на этом отрезке и =0 вне его:

1/ (b-a), а< =х<=b

Р(х)= {

О, х<а, х>b

Функция распред. случайн. величины, расп-

ред-ой по равномерн. закону, имеет вид:

O, x<=a

F(x)= { (x-a)/(b-a), a<x<=b

1, x>b

График р(х) иF(х)на рис

Мат. ожидание и дисперсия равн. случ.

величины:

МХ=(а+b)/2; DХ=(b-а)( b-a)/ 12

24.Показательный закон распределения и его числовые характеристики.

Непрерывная СВ Х имеет показ. (экспоненциальное) распределение с параметром λ >0, если ее плотность распред-я имеет вид:

Ф-ция распределения СВ, распределенной по показ. з-ну:

Показательному распределению обычно подчиняется величина срока службы различных устройств и времени безотказной работы отдельных элементов этих устройств, другими словами – величина промежутка времени между появлениями двух послед-х редких событий.

Вероятность попадания случайной величины Х на интервал (α;β)




25.Нормальный закон распределения, его параметры и их вероятностный смысл. Зависимость формы нормальной кривой от параметров.

Влияние параметров а и σ на вид нормальной кривой.Нормальное распределение явл. одним из наиболее часто встречающихся. Играет большую роль в тер. вер., поскольку явл. Предельным законом, к к-ому приближаются все др. законы распределения.Док-но, что если знач. СВ возникают в результате большого числа независимых воздействий, ни одно из к-ых не превалирует над остальными, то результат этих воздействий явл. СВ, распределенной по нормальному закону почти всегда.По нормальному закону распределены:случайные ошибки измерения,лин. размеры деталей при массовом пр-ве,биометрические показатели лиц определенного возраста,отклонения в результате хим., спектральных и других анализах.

Говорят, что непрерывная СВ Х имеет нормальное распределение с параметрами а и σ, если ее плотность распределения имеет вид -(x- a)2/2σ2

f(x)=( 1/σ√2π) e

Определение корректно, т.к.:

-∞+∞f(x)dx=1

^ M(X)= -∞+∞xf(x)dx=a

σ (X)= -∞+∞(x-M(X))2f(x)=σ2

Для геометрической интерпретации параметров а и σ исследуют поведение ф-ии

-(x-a)2/2σ2

f(x)=( 1/σ√2π) e

график к-ой наз. нормальной кривой.

График симметр.относит.а

При изменении параметра а форма кривой не меняется, а ее график сдвигается влево или вправо. При изменении параметра σ меняется форма нормальной кривой: с увеличением параметра σ кривая должна приближаться к 0Х и растягиваться вдоль этой оси, а с уменьшением σ кривая стягивается к прямой х=а.
26.Вероятность попадания нормально распределенной случайной величины в заданный интервал; вероятность заданного отклонения. Чтобы найти вероятность попадания нормально распределенной случайной величины  в заданный интервал  с помощью функции Лапласа, сначала с.в. Х нормализуется (см. 4.24), а затем  используется следующая формула:          

                                                      =                              

ормированное нормальное распределение имеет параметры  и . Это распределение получается, если пронормировать нормально распределенную величину X по формуле:                                                                                                                                   (4.24)

Плотность распределения вероятностей нормированного нормального распределения записывается в виде:                 ^ Вероятность заданного отклонения равна

На рисунке наглядно показано, что если две случайные величины нормально распределены и а = 0, то вероятность принять значение, принадлежащее интервалу (-d,d),больше у той величины, которая имеет меньшее значение d. Этот факт полностью соответствует вероятностному смыслу параметра s .



27. Правило трех сигм и его значение для праклики При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм. Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины D: Если принять D = 3s, то получаем с использованием таблиц значений функции Лапласа: Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее. На практике считается, что если для какой – либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.

28.Функция Лапласа и ее связь с функцией распределения нормальной случайной величины.

1) Распределение N(0;1) наз-ся станд-ным нормальным..Для стандартного распред-я плотность вер-ти равна: , а ф-я распред-я .

Ф-я Лапласа и ф-я распред-я НСВ Х с параметрами связаны соотнош-м: .

2)Получим формулу д/вычисления вер-ти попадания НСВ с параметрами в задан. интервал(α;β) через стандарт-е распред-е :

3)Вер-ть того, что НСВ отклоняется от своего мат.ожид-я по модулю меньше, чем ε>0, определяется формулой . Если положить , то получим .

Отсюда вытекает, что среди 10000 значений НСВ в среднем только 27 выйдут за пределы интервала . Это означает, что практически среди небольшого числа значений Х нет таких, кот. выходят за пределы указанного интервала. Правило 3-х сигм часто применяется д/грубой оценки сигма: .

29.Моменты случайных величин. Асимметрия и эксцесс.

Моментом n-го порядка Х по отн-ию к знач-ию а Mn(a)=M(X-a)n, а=0-начальный момент ύn

ф=Ь(Ч)-центральный μn

Для ДСВ: ύn=

Для НСВ: ύn=

Можно показать что справедлива формула:

μn=

μ2=ύ212

μ33-3ύ2 ύ1+2ύ12

μ44-4ύ1 ύ3+6ύ12 ύ2-3ύ14

На практике при изуч. распределения отличного от норм. необх. колич. оценить эти различия для этого вводятся вспомог.числ. хар-ки

ассиметрия и эксцесс.Центр.

момент 3-го порядка μ3 характ-ет отклонение распределения СВХ от симметрии относит. мат.ожид.За меру этого отклонения берут число:

α = μ33(х)-коэф.ассиметрии.

Ассиметрия всех распред-ий графики которых симметр. относит.прямой х=а=М(х) равна 0. Центр.момент 4-го порядка μ4 служит для хар-ки крутости распред-ия СВ Х по сравнению с крутостью распред-ия НСВ с мат.ожид.и дисп. такими же как и у Х.За меру этой крутости берут число: χ = [ μ44(х) ] -3


30.Функция распределения, плотность распределения двумерной случайной величины и их свойства. Закон распределения составляющих .Функцией распределения F(x, y) двумерной случайной величины (X, Y) называется вероятность того, что X < x, a Y < y:

                             F( х, у ) = p ( X < x, Y < y ).                                         (8.1)

                                                                                                                                    

                Рис.1Это означает, что точка (X, Y) попадет в область, заштрихованную на рис. 1, если вершина прямого угла располагается в точке (х, у).Плотностью совместного распределения вероятностей (двумер-ной плотностью вероятности) непрерывной двумерной случайной величины называ-ется смешанная частная производная 2-го порядка от функции распределения:   .                                                        (8.2)Замечание. Двумерная плотность вероятности представляет собой предел отношения вероятности попадания случайной точки в прямоугольник со сторонами Δх и Δу к площади этого прямоугольника при             Свойства двумерной плотности вероятности.1)      f(x, y) ≥ 0 (см. предыдущее замечание: вероятность попадания точки в прямоуголь-ник неотрицательна, площадь этого прямоугольника положительна, следовательно, предел их отношения неотрицателен).

2)      (cледует из определения двумерной плотности вероятно-сти). 3)      (поскольку это вероятность того, что точка попадет на плос-кость Оху, то есть достоверного события). Условной плотностью φ(х/у) распределения составляющих Х при данном значении Y = у называется                                     .                            

  Аналогично определяется условная плотность вероятности Y  при Х = х                                      .                                

     
31.Нормальный закон распределения двумерной случайной величины.
^

Двумерное нормальное распределение


Двумерная случайная величина XY распределена нормально, если ее плотность вероятности f(x,y) имеет вид


32.Неравенство Маркова.

Маркова неравенство – неравенство, дающее возможность оценить производную многочлена на некотором отрезке, если известна оценка для самого многочлена на этом отрезке.

Если многочлен Pn(x) степени n на отрезке [–1; 1] удовлетворяет условию  то на этом отрезке справедливо неравенство


33.Неравенство Чебышева. Следствия. Первая форма неравенства Чебышева.Вероятность того, что отклонение случайной величины Х от ее математического ожидания, а произойдет по абсолютной величине постоянное число Е>0, не больше , т.е..                                             (61)

 ^ Вторая форма неравенства Чебышева Вероятность того, что отклонение случайной величины Х от ее математического ожидания, а не произойдет по абсолютной величине постоянного числа Е>0, не меньше , т.е..                                      (62)

 34.Теорема Чебышева. Закон больших чисел в форме Чебышева и его значение.

Если случайные величины Хi, i=1,2…,n,

независимы и одинак. распределены со

средними МХi =a и дисперсиями DXi =DX,

то справедлива теорема Чебышева:

n

P(|1/n сумма ( Xi) - a | <= e ) >= 1- DX/ne*e

i=1

Из этого неравенства при n стр-ся к беск-ти

следует закон больших чисел

n

limP(|1/n сумма (Xi )- a| <=e)=1

n-& i=1

Смысл закона закл . в том, что средние значения

случайных величин стремятся к их мат. ожиданию

при n- & по вероятн. Отклонение средн. значений

от мат.ожидания стан-ся сколь угодно малым с

вероятностью, близкой к 1, если n достаточно

велико или вероятность любого откл. средн. знач.

от а сколь угодно мала с ростом n.

(e – это эпсилон.)


35.Теорема Бернулли. Закон больших чисел в форме Бернулли и его значение.

Теорема Бернулли:

Если вер-ть наст-я соб-я А в каж-м из n повторных нез-х испыт-й пост-на, то при неогран-м увел-ии числа n исп-й отн-я частота наст-я соб-я А стрем-ся по вер-ти к числу p, т.е. для >0

Т-ма Б-ли явл-ся теор-ким обосн-ем для стат-го опр-я вер-ти.

Неравенство Бернулли:

Пусть n исп-й Бернулли с вер-ю успеха p, q=1-p и m – число успехов. Тогда для >0



Пусть производится последовательность независимых испытаний, в результате каждого из которых может наступить или не наступить событие А, причем вероятность наступления этого события одна и та же при каждом испытании и равна р. Если событие А фактически произошло m раз в n испытаниях, то отношение m/n называют, как мы знаем, частотой появления события А. Частота есть случайная величина, причем вероятность того, что частота принимает значение m/n, выражается по формуле Бернулли (13):
   Закон больших чисел в форме Бернулли состоит в следующем: с вероятностью, сколь угодно близкой к единице, можно утверждать, что при достаточно большом числе опытов частота появления события А как угодно мало отличается от его вероятности, т. е.



(55)


   иными словами, при неограниченном увеличении числа n опытов частота m/n события А сходится по вероятности к Р(А). (Доказательство)

   Мы говорили (см. § 1, п. 1), что при большом числе испытаний частота Р*(А)=m/n события А обладает свойством устойчивости. Это обстоятельство находит свое объяснение в законе больших чисел Бернулли.

36.Понятие о центральной предельной теореме и ее следствиях.

Мы приведем без доказательства вариант ЦПТ для независимых одинаково распределенных слагаемых.

Центральная Предельная Теорема 1   Пусть -- последовательность независимых одинаково распределенных с.в. с конечной дисперсией. Обозначим и . Тогда



где -- функция распределения стандартного нормального закона.


37.Предмет и задачи математической статистики. Генеральная и выборочная совокупности. Способы отбора.Задачи математической статистики Математическая статистика, раздел математики, посвященный математическим методам систематизации, обработки и использования статистических данных для научных и практических выводов. При этом статистическими данными называются сведения о числе объектов в какой-либо более или менее обширной совокупности, обладающих теми или иными признаками. Предмет и метод математической статистики. Статистическое описание совокупности объектов занимает промежуточное положение между индивидуальным описанием каждого из объектов совокупности, с одной стороны, и описанием совокупности по её общим свойствам, совсем не требующим её расчленения на отдельные объекты, — с другой. По сравнению с первым способом статистические данные всегда в большей или меньшей степени обезличены и имеют лишь ограниченную ценность в случаях, когда существенны именно индивидуальные данные (например, учитель, знакомясь с классом, получит лишь весьма предварительную ориентировку о положении дела из одной статистики числа выставленных его предшественником отличных, хороших, удовлетворительных и неудовлетворительных оценок). С другой стороны, по сравнению с данными о наблюдаемых извне суммарных свойствах совокупности статистические данные позволяют глубже проникнуть в существо дела. Метод исследования, опирающийся на рассмотрение статистических данных о тех или иных совокупностях объектов, называется статистическим. Статистический метод применяется в самых различных областях знания. Множество всех единиц совокупности, обладающих определенным признаком и подлежащих изучению, носит в статистике название генеральной совокупности. На практике по тем или иным причинам не всегда возможно или же нецелесообразно рассматривать всю генеральную совокупность. Тогда ограничиваются изучением лишь некоторой части ее, конечной целью которого является распространение полученных результатов на всю генеральную совокупность, т. е. применяют выборочный метод. Для этого из генеральной совокупности особым образом отбирается часть элементов, так называемая выборка, и результаты обработки выборочных данных (например, средние арифметические значения) обобщаются на всю совокупность.

38.Построение дискретного вариационного ряда. Эмпирическая функция распределения и ее свойства. Дискретный вариационный ряд характеризует распределение единиц совокупности по дискретному признаку, принимающему толь­ко целые значения. Для его построения следует перечислить все встречающиеся варианты значений признака и подсчитать частоту повторения. При графическом изображении дискретных вариацион­ных рядов используется полигон распределения, или полигон частот. Для его построения в прямоугольной системе координат по оси абсцисс в одинаковом масштабе откладываются ранжированные значения варьирующего признака, а по оси ординат наносится шкала для выражения величины частот. Полученные на пересечении абсцисс и ординат точки соединяются прямыми линиями, в результате чего получают ломаную линию.Эмпирической функцией распределения (функцией распределения выборки) называют функцию F*(x) , определяющую для каждого значения x относительную частоту события X<x. Та-ким образом, по определению F*(x)= Nx/N, где Nx–число вариант, меньших x, n – объем выборки.Свойства:1)Значения эмпирической функции принадлежат отрезку [0,1].
2)неубывающая функция.
3)Если x – наименьшая варианта, то F*(x)=0 при x<=Xk ,
если x– наибольшая варианта, тоF*(x)=1 при x>Xk.
Эмпирическая функция распределения выборки служит для оценки теоретической функции распределения генеральной совокупности.

39.Построение интервального вариационного ряда. Гистограмма частот и относительных частот.Для построения интервального вариационного ряда, характеризующего распределение банков по объему кредитных вложений, необходимо вычислить величину и границы интервалов ряда

При построении ряда с равными интервалами величина интервала h определяется по формуле (1) где xmax, xmin - наибольшее и наименьшее значения признака в исследуемой совокупности, k - число групп интервального ряда.Число групп k задается в условии задания или рассчитывается по формуле Г. Стерджесса Полигоном частот называется ломаная линия, вершинами которой служат точки с координатами (хi;ni), i=1…k.Для группировки выборки строят гистограмму частот, т.е. ступенчатую фигуру, состоящую из прямоугольников,площадь прямоугольника равна частоте ñi*.Площадь гистограммы равна объему выборки.Высота прямоугольников равна ñ*i / n. Для изображения интервального вариационного ряда используется гистограмма. На оси абсцисс

откладываются величины интервалов, а частоты изображаются прямоугольниками, построенными

на соответствующих интервалах. Высота столбцов гистограммы должна быть пропорциональна частотам.

40.Точечные оценки параметров генеральной совокупности. Средняя арифметическая и ее свойства.

. Точечные оценки параметров генеральной совокупности Оценка параметра — определенная числовая характеристика, полученная из выборки. Точечной называют статистическую оценку, которая определяется одним числом. В качестве точечных оценок параметров генеральной совокупности используются соответствующие выборочные характеристики. Теоретическое обоснование возможности использования этих выборочных оценок для суждений о характеристиках и свойствах генеральной совокупности дают закон больших чисел и центральная предельная теорема Ляпунова. Несмещенной называют точечную оценку, математическое ожидание которой равно оцениваемому параметру при любом объеме выборки. Смещенной называют точечную оценку, математическое ожидание которой не равно оцениваемому параметру. Выборочная средняя является точечной оценкой генеральной средней, т. е. Несмещенной оценкой генеральной средней (математического ожидания)служит выборочная средняя. Генеральная дисперсия имеет две точечные оценки: — выборочная дисперсия, которая исчисляется при н30; S^2 — исправленная выборочная дисперсия, которая исчисляется при n < 30. Причем в математической статистике доказывается, что При больших объемах выборки и S^2практически совпадают. ^ Смещенной оценкой генеральной дисперсии служит выборочная дисперсия. Генеральное среднее квадратическое отклонение также имеет две точечные оценки: — выборочное среднее квадратическое отклонение и S — исправленное выборочное среднее квадратическое отклонение. используется для оценивания при п 30, a S для оценивания при п < 30; пpи этом Св-ва средней арифм:1.Сумма отклон-й индивид знач-й признака от его среднего знач-я равна нулю.2. Если каждое индивид знач призн умнож или раздел на постоянное число, то и средняя увеличится или уменьшится во столько же раз.3. Если к каждому индивидуальному значению признака прибавить или из каждого значения вычесть постоянное число, то средняя величина возрастет или уменьшится на это же число.4. Если веса средней взвешенной умножить или разделить на постоянное число, средняя величина не изменится.5. Сумма квадр-в отклон-й индив значений признака от средней арифметической меньше, чем от любого другого числа.
41.Дисперсия вариационного ряда и ее свойства. Исправленная выборочная дисперсия.

интервальный вариационный ряд

Характеризует распределение единиц совокупности по количественному признаку, величина ко-

торого может принимать в определенных пределах любые значения, отличающиеся друг от друга

на сколь угодно малую величину.

После определения исследуемого признака, необходимо решить вопрос о количестве групп (ин-

тервалов), на которые надо разбить выборку.Выборочная дисперсия является смещённой оценкой теоретической дисперсии, а исправленная выборочная дисперсия несмещённая:



.

42.Интервальные оценки параметров. Доверительный интервал Интервальной оценкой называют оценку, которая определяется двумя числами — концами интервала, который с определенной вероятностью накрывает неизвестный параметр генеральной совокупности. Интервал, содержащий оцениваемый параметр генеральной совокупности, называют доверительным интервалом. Для его определения вычисляется предельная ошибка выборки , позволяющая установить предельные границы, в которых с заданной вероятностью (надежностью) должен находиться параметр генеральной совокупности.Предельная ошибка выборки равна t-кратному числу средних ошибок выборки. Коэффициент t позволяет установить, насколько надежно высказывание о том, что заданный интервал содержит параметр генеральной совокупности. Если выбирается коэффициент таким, что высказывание в 95% случаев окажется правильным и только в 5% — неправильным, то говорится, что: со статистической надежностью в 95% доверительный интервал выборочной статистики содержит параметр генеральной совокупности. Статистической надежности в 95% соответствует доверительная вероятность — 0,95. В 5% случаев утверждение «параметр принадлежит доверительному интервалу» будет неверным, т. е. 5% задает уровень значимости () или 0,05 вероятность ошибки. Обычно в статистике уровень значимости выбирают таким, чтобы он не превысил 5% (α < 0,05). Доверительная вероятность и уровень значимости дополняют друг друга до 1 (или 100%) и определяют надежность статистического высказывания. С помощью доверительного интервала можно оценить не только генеральную среднюю, но и другие неизвестные параметры генеральной совокупности.
43.Статистическая проверка гипотез. Критерий проверки, ошибки первого и второго рода, критическая область.

^ СТАТИСТИЧЕСКАЯ ПРОВЕРКА ГИПОТЕЗ - система приемов в математической статистике, предназначенная для проверки соответствия опытных данных проверяемой гипотезе. К проблеме статистической проверки гипотез приводит большое число связанных с экспериментом вопросов, возникающих в приложениях, напр. сравнение урожайности сортов каких-либо сельскохозяйственных культур, эффективности лекарственных препаратов и др. Правило, по которому принимается или отклоняется данная гипотеза, называют статистическим критерием.При проведении экономико-статистических исследований в первую очередь приходится решать задачи статистической проверки гипотез о:
1) принадлежности «выделяющихся» единиц исследуемой выборочной совокупности генеральной совокупности;
2) виде распределения изучаемых признаков;
3) величине средней арифметической и доли;
4) наличии и тесноте связи между изучаемыми признаками;
5) о форме корреляционной связи.1)Ошибка первого рода – проверяемая гипотеза (ее обычно называют нулевой гипотезой и обозначают Н0) является в действительности верной, но результаты проверки приводят к отказу от нее;
2) Ошибка второго рода – проверяемая гипотеза в действительности является ошибочной, но результаты проверки приводят к ее принятию.Правило, по которому проверяется гипотеза, называется статистическим критерием.
В статистике в настоящее время имеется большое число критериев для проверки практически любых гипотез.критическая область  – это совокупность  значений статистики критерия, которые “говорят”, что нулевую гипотезу следует отвергнуть. Выделяют три вида критических областей:Двусторонняя критическая область определяется двумя интервалами , где находят из условий .Левосторонняя критическая область определяется интервалом , где xα находят из условия P(φ < xα) = α.

Правосторонняя критическая область определяется интервалом , где x1 − α находят из условия P(φ < x1 − α) = 1 − α.

44.Критерий согласия Пирсона о законе распределения случайной величины.Критерий Пирсона, или критерий χ2 — наиболее часто употребляемый критерий для проверки гипотезы о законе распределения. Во многих практических задачах точный закон распределения неизвестен, то есть является гипотезой, которая требует статистической проверки.Обозначим через X исследуемую случайную величину. Пусть требуется проверить гипотезу H0 о том, что эта случайная величина подчиняется закону распределения F(x). Для проверки гипотезы произведём выборку, состоящую из n независимых наблюдений над случайной величиной X. По выборке можно построить эмпирическое распределение F * (x) исследуемой случайной величины. Сравнение эмпирического F * (x) и теоретического распределений производится с помощью специально подобранной случайной величины — критерия согласия. Одним из таких критериев и является критерий Пирсона.
45.Модели и основные понятия регрессионного анализа.

Задачи регрессионного анализа лежат в сфере установления формы зависимости, определения функции регрессии, использования уравнения для оценки неизвестных значении зависимой переменной.

Вопросы по курсу «Теория вероятностей и математическая статистика»
События и вероятность

  1. Случайные события и их классификация. Операции со случайными событиями.

  2. Классическое, статистическое и геометрическое определение вероятности.

  3. Элементы комбинаторики: размещения, перестановки и сочетания (вывод формул). Свойства сочетаний.

  4. Совместные и несовместные события. Теоремы сложения вероятностей.

  5. Зависимые и независимые события. Условная вероятность. Теоремы умножения вероятностей.

  6. Вероятность наступления только одного, хотя бы одного события.

  7. Формула полной вероятности и формула Байеса.


Повторные независимые испытания

  1. Повторные независимые испытания. Формула Бернулли.

  2. Наивероятнейшее число появления события (вывод неравенства).

  3. Локальная и интегральная теоремы Муавра-Лапласа.

  4. Вероятность отклонения частоты от наивероятнейшей (частости от вероятности успеха).

  5. Теорема Пуассона (вывод формулы).



Дискретные случайные величины

  1. Дискретная случайная величина и закон ее распределения. Многоугольник распределения. Операции со случайными величинами. Пример.

  2. Функция распределения дискретной случайной величины, ее свойства и график.

  3. Математическое ожидание дискретной случайной величины и его свойства.

  4. Дисперсия дискретной случайной величины и ее свойства. Среднее квадратичное отклонение. Размерность дисперсии и среднеквадратичного отклонения.

  5. Биномиальный закон распределения и его числовые характеристики (вывод формулы).

  6. Закон Пуассона и его числовые характеристики (вывод формулы). Простейший поток событий.

Геометрическое и гипергеометрическое распределения и их характеристики (вывод формулы).

Непрерывные случайные величины

  1. Функция распределения непрерывной случайной величины и ее свойства. График функции распределения НСВ.

  2. Плотность распределения вероятностей непрерывной случайной величины и ее свойства.

  3. Математическое ожидание и дисперсия непрерывной случайной величины.

  4. Равномерный закон распределения и его числовые характеристики. (из учебника добираю)

  5. Показательный закон распределения и его числовые характеристики.

  6. Нормальный закон распределения, его параметры и их вероятностный смысл. Зависимость формы нормальной кривой от параметров.

  7. Вероятность попадания нормально распределенной случайной величины в заданный интервал; вероятность заданного отклонения.

  8. Правило трех сигм и его значение для практики.

  9. Функция Лапласа и ее связь с функцией распределения нормальной случайной величины.

  10. Моменты случайных величин. Асимметрия и эксцесс.

  11. Функция распределения, плотность распределения двумерной случайной величины и их свойства. Закон распределения составляющих

  12. Нормальный закон распределения двумерной случайной величины.

Законы больших чисел

  1. Неравенство Маркова.

  2. Неравенство Чебышева. Следствия.

  3. Теорема Чебышева. Закон больших чисел в форме Чебышева и его значение.

  4. Теорема Бернулли. Закон больших чисел в форме Бернулли и его значение.

  5. Понятие о центральной предельной теореме и ее следствиях.

Математическая статистика

  1. Предмет и задачи математической статистики. Генеральная и выборочная совокупности. Способы отбора.

  2. Построение дискретного вариационного ряда. Эмпирическая функция распределения и ее свойства.

  3. Построение интервального вариационного ряда. Гистограмма частот и относительных частот.

  4. Точечные оценки параметров генеральной совокупности. Средняя арифметическая и ее свойства.

  5. Дисперсия вариационного ряда и ее свойства. Исправленная выборочная дисперсия.

  6. Интервальные оценки параметров. Доверительный интервал.

  7. Статистическая проверка гипотез. Критерий проверки, ошибки первого и второго рода, критическая область.

  8. Критерий согласия Пирсона о законе распределения случайной величины.

  9. Модели и основные понятия регрессионного анализа.

  10. Нахождение параметров линейного уравнения регрессии методом наименьших квадратов.

  11. Коэффициент линейной корреляции случайных величин и его свойства.



Скачать файл (161.1 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации