Logo GenDocs.ru

Поиск по сайту:  


Загрузка...

Лекции - Лекции по теории вероятностей и математической статистике - файл 1.doc


Лекции - Лекции по теории вероятностей и математической статистике
скачать (3589.5 kb.)

Доступные файлы (1):

1.doc3590kb.30.11.2011 08:36скачать

содержание
Загрузка...

1.doc

  1   2   3   4   5   6
Реклама MarketGid:
Загрузка...
В. М. Калинин, С. Р. Тихомиров

Лекции по теории вероятностей

и математической статистике

 

Теория вероятностей

Классическое определение вероятности.
Основные формулы исчисления вероятностей


Разберём весьма частный, однако, часто встречающийся случай:  состоит из конечного числа N равновероятных событий.

Понятие ''равновероятности'' здесь является исходным, неопределяемым. Основанием для суждения о равновозможности, равновероятности обычно слу­жит физическая симметрия, равноправие исходов. Понятие "вероятность" здесь уже является производным, определяемым: вероятностью P(A) события A называется

P(A),
где N(A) – число элементарных событий, благоприятствующих событию A.

В этих условиях выведем основные формулы исчисления вероятностей.

1. Вероятность достоверного события равна 1: P()1. Это очевидно, так как  N()N.

2. Вероятность невозможного события равна 0: P()0.  Это ясно, поскольку N()0.

3. P()1P(A). Справедливость равенства следует из равенства N(A)
N()N.

4. 0P(A)1 для A, поскольку 0N(A)N.

5. AB  P(A)P(B), поскольку в этом случае N(A)N(B).

6. Для любых событий A и B: P(AB)P(A), так как N(AB)N(A).

7. Теорема сложения для несовместимых событий. Если события A и B несовместимы, то вероятность их суммы равна сумме вероятностей:

P(AB)P(A)P(B).

Действительно, N(AB)N(A)N(B) и остаётся разделить это равенство на N.

8. Теорема сложения в общем случае:

P(AB)P(A)P(B)P(AB).

Действительно, из определения суммы событий: N(AB)N(A)N(B)
N(AB). Деля почленно это равенство на N, убеждаемся в справедливости теоремы.

9. Обобщение теоремы сложения на n событий:

P(A1A2An)(1)k1P(Aj1Aj2Ajk).

Формула доказывается методом математической индукции несложно, но громоздко. Во внутренней сумме число слагаемых, очевидно, равно и суммирование ведётся по всевозможным наборам различных натуральных индексов  j1, j2,  , jk.

10. Условная вероятность.

Добавим к комплексу условий, реализация которых интерпретируется как опыт, ещё одно условие: произошло событие ^ B; это возможно практически лишь в случае, когда P(B)0. Все опыты, в которых B не произошло, мы как бы игнорируем. Считаем, что добавление события B к комплексу условий не нарушает равновероятности исходов и не меняет природы самих исходов. Теперь опыт может иметь лишь один из N(B) исходов, а из них событию A благоприятствуют N(AB) исходов. В соответствии с классическим определением, вероятность события A при условии, что произошло событие B, равна:

P(A|B) .

Таким образом, по существу, условная вероятность ничем не отличается от обычной, безусловной вероятности.

В случае, если AB, формула для условной вероятности упрощается:

P(A|B),

так как здесь ABA.

11. Теорема умножения: вероятность совместного наступления двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое произошло:

P(AB)P(B)P(A|B)P(A)P(B|A).

Первая из этих формул для P(B)0 является лишь формой записи формулы пункта 10 для условной вероятности; вторая получена из неё перестановкой местами A и B, что для P(A)0 возможно. Вместе с тем ясно, что теорема умножения верна и для случая P(A)0 или P(B)0, но при этом она становится тривиальной и бессодержательной.

12. Независимость событий.

Будем говорить, что событие ^ A не зависит от события B, если P(A|B)P(A). В этом случае теорема умножения упрощается: P(AB)P(A)P(B).

И наоборот, для событий, имеющих положительную вероятность, из последней формулы следует независимость события A от B:

P(A|B)P(A).

Таким образом, второе эквивалентное определение независимости: события A и B, имеющие положительные вероятности, независимы, если вероятность их произведения равна произведению их вероятностей: P(AB)P(A)P(B). События A и B в этом определении симметричны: если событие A не зависит от B, то и B не зависит от A.

Если события A и B независимы, то независимы также и события A и .

Действительно:

P(|A)P(B|A)1,

откуда:

P(|A)1P(B|A)1P(B),

а это и доказывает наше утверждение.

Ясно, что независимы также и события , .

Если события A и B независимы, то они не могут быть несовместимыми: если A и B – одновременно несовместимы и независимы, то, с одной стороны, AB и P(AB)0, а, с другой, – P(AB)P(A)P(B), что противоречит предположению о положительности вероятностей P(A) и P(B).

Обобщение понятия независимости на n событий: события A1, A2,  , An называются независимыми в совокупности, если для любого набора различных индексов j1, j2,  , jk вероятность произведения событий Aj1Aj2Ajk равна произведению вероятностей событий Aj1, Aj2,  , Ajk:

P(Aj1Aj2Ajk)P(Aj1)P(Aj2)P(Ajk).

Можно думать, что для независимости событий в совокупности достаточно попарной независимости, Конкретные примеры, однако, доказывают, что это не так.

Таким образом, для независимых событий легко вычислять вероятность произведения, а для несовместимых событий легко вычислять вероятность суммы.

Если события A1, A2,  , Anнезависимы, то

P(A1A2An)P()1P()P()P().

Если события A1, A2,  , Anнесовместимы, то

P()P()1P(A1A2An)1P(Ak).

13. Теорема умножения для n событий:

P(A1A2An)P(A1)P(A2An|A1).

Учитывая, что условные вероятности ничем не отличаются от безусловных – лишь добавляется к комплексу условий ещё одно, которое в дальнейшем терять или отбрасывать нельзя, – можем продолжить:

P(A1A2An)P(A1)P(A2|A1)P(A3An|A1A2)  .

Окончательно:

P(A1A2An)P(A1)P(A2|A1)P(A3|A1A2)P(An|A1A2An1).

Эта теорема позволяет дать ещё одно определение независимости в совокупности: события A1, A2,  , An, имеющие положительные вероятности, независимы в совокупности, если для любого набора неравных индексов

P(Aj1Aj2Ajk|Ai1Ai2Aim)P(Aj1Aj2Ajk),

что легко устанавливается по теореме умножения и формуле для условных вероятностей.

14. Формула полной вероятности.

Пусть A1, A2,  , An – любое разбиение пространства , B – любое событие. Тогда BBB(A1A2An)BA1BA2BAn и получаем формулу полной вероятности:

P(B)P(BAk)P(Ak)P(B|Ak).

Обычно A1, A2,  , An – взаимоисключающие друг друга ситуации, в которых может происходить событие B.

15. Формулы Байеса.

В обозначениях предыдущего пункта:

P(Ak|B), k1, 2,  , n,

и мы получили формулы Байеса, которые называют также формулами вероятностей гипотез: если событие B может произойти лишь с одним и только одним из событий A1, A2,  , An и оно действительно произошло, то, спрашивается, с каким из событий Ak оно произошло? Можно сделать n гипотез и, соответственно, формулы Байеса дают апостериорные вероятности P(Ak|B) для этих гипотез, выражая их через априорные вероятности P(Am) и условные вероятности P(B|Am) того, что в условиях m-ой гипотезы произойдёт событие B.

Таковы основные формулы исчисления вероятностей. Они получены в условиях весьма частного случая – классической схемы, т. е. для пространства конечного числа N равновероятных элементарных событий. В этой схеме число событий, которым благоприятствуют ровно k исходов, равно , а общее число различных событий, следовательно, равно 2N.

Весьма неожиданно, что все полученные формулы являются общими и в действительности сохраняют свою силу для любого пространства элементарных событий. Покажем это.

^ Понятие об аксиоматическом построении
теории вероятностей


Пусть дано пространство элементарных событий . Множество  событий A, B, C,  назовём полем событий, если

а) ;

б)A, B  AB, AB, , .

Таким образом, введённые действия с событиями: сложение, умножение и переход к противоположному событию – не выводят нас из поля событий, поле событий замкнуто относительно этих операций.

Очевидно, также, что .

Примем следующие три аксиомы:

I. Любому событию A из поля событийприведено в соответствие неотрицательное число P(A), называемое вероятностью события A.

II. P()1: вероятность достоверного события равна единице.

III. Аксиома сложения. Вероятность суммы несовместимых событий равна сумме их вероятностей.

Если A1, A2,  , An – попарно несовместимые события, то

P(A1A2An)P(Ak).

Тройка (, , P()) называется вероятностным пространством.

Таким образом, поле событий  является областью определения вероятностной функции P(), при этом, как будет показано ниже (4), отрезок [0; 1] является областью её значений.

Все пятнадцать формул исчисления вероятностей оказываются следствием трёх только что введённых аксиом. Действительно:

1. P()1 по II аксиоме.

2. , , поэтому по III аксиоме: P()P()P(), откуда P()0.

В классической схеме были справедливы и обратные утверждения: если P(A)1, то событие A – достоверное; если P(A)0, то событие A – невозможное. В общей же схеме обратные утверждения, вообще говоря, ошибочны. При­ходится вводить особые названия для событий единичной и нулевой вероятности: если P(A)1, то говорят, что событие A происходит почти наверное, если P(A)0, говорят, что событие A почти наверное не происходит. Пожалуй, именно это различие значительно усложняет строгую теорию вероятностей по сравнению с классическим случаем.

3. A и A. Поэтому по аксиомам III и II: P(A)P()P()1. Отсюда: P()1P(A).

4. По аксиоме I: P(A)0. Так как P(A)P()P()1, и, ввиду аксиомы I: P()0, то P(A)1. Итак, для любого события A: 0P(A)1.

5. Если AB, то BAB, и слагаемые здесь несовместимы. По аксиоме III: P(B)P(A)P(B); по I аксиоме: P(B)0; поэтому P(B)P(A).

6. Для любых двух событий A и B: P(AB)P(A).

Действительно: AABA и по аксиомам III и I:

P(A)P(AB)P(A)P(AB).

7. Формула P(AB)P(A)P(B) в случае, когда AB, верна по аксиоме III.

8. Докажем теорему сложения для двух событий:

P(AB)P(A)P(B)P(AB).

Очевидно,

A

BAB,
BABB,

причём в обоих равенствах справа слагаемые несовместимы. По III аксиоме:

P

(AB)P(A)P(B),
P(B)P(AB)P(B).

Вычитая почленно нижнее равенство из верхнего, получим теорему сложения.

9. Теорема сложения для n событий

P(A1A2An)(1)k1P(Aj1Aj2Ajk)

является прямым следствием теоремы сложения для двух событий.

10. Формула для условной вероятности

P(A|B)

является определением условной вероятности в предположении, что вероятность P(^ B) ненулевая: P(B)0. Вероятность P(A|B) показывает, какая часть ве­роятности P(B) приходится на долю события A.

11. Прямым следствием определения условной вероятности оказывается формула:

P(AB)P(B)P(A|B)P(A)P(B|A).

12. Совершенно так же, как и в классической схеме, на основе последних формул строится понятие независимости событий: события A и B независимы в том и только в том случае, когда P(AB)P(A)P(B).

13. Теорема умножения для n событий

P(A1A2An)P(A1)P(A2|A1)P(A3|A1A2)P(An|A1A2An1)

является прямым следствием теоремы умножения для двух событий.

14, 15. Выводы формулы полной вероятности и формул вероятностей гипотез воспроизводятся без изменений: для любого события B и любого разбиения пространства  (A1A2An):

P(B)P(Ak)P(B|Ak),

P(Ak|B), k1, 2,  , n.

В более полных, чем наш, курсах теории вероятностей приходится рассматривать также и суммы бесконечного числа событий и, соответственно, требовать, чтобы эта операция не выводила из поля событий: для бесконечной последовательности попарно несовместимых событий A1, A2,  , An,  требуют, чтобы An. Такие поля событий называются борелевскими полями или сигма-алгебрами. Приходится для борелевского поля событий усиливать аксиому III, распространяя её и на бесконечные суммы попарно несовместимых событий:

P(An)P(An).

Любопытно отметить, что в изложенном аксиоматическом построении те­ории вероятностей не нашлось места такому понятию, как событие "произо­шло" или "не произошло". Теория вероятностей оказывается частью теории меры, причём характерными свойствами вероятностной меры оказываются её неотрицательность: P(A)0 и нормированность на единицу: P()1. Про­сматривая выведенные свойства вероятностной функции P(), можно заметить, что она ведёт себя подобно массе: единичная "масса вероятности" распределяется в пространстве . Если нас интересует вероятность некоторого события A, то мы должны подсчитать, сколько этой массы досталось множеству A.


Одномерные случайные величины

Пусть имеется вероятностное пространство (, , ^ P()) Определим на  числовую функцию XX(): каждому элементарному событию  приведено в соответствие вещественное число X(). Такая функция называется случайной величиной. Мы ставим опыт, получаем элементарное событие , смотрим, какое число X()x было приведено ему в соответствие, и говорим: в опыте случайная величина X приняла значение x.

Рассмотрим простейший случай: число возможных значений случайной величины ^ X конечно или счётно: x1,  , xk,  Такую случайную величину называют дискретной. Законом распределения дискретной случайной величины называют совокупность вероятностей её возможных значений: pkP{Xxk}. Будем предполагать, что события {Xxk} содержатся в поле событий , и тем самым вероятности pk определены.

Очевидно, одно и только одно из своих значений случайная величина обязательно примет. Поэтому выполняется равенство

pk1,

называемое иногда условием нормировки в дискретном случае.

Задать случайную величину значит задать закон её распределения: т. е. указать её возможные значения и распределение вероятностей между ними.

^ В общем случае общепринятый способ задания случайной величины даёт так называемая функция распределения:

F(x)P{Xx}.

Она указывает, какая вероятность досталась не отдельным точкам, а полуоси левее точки x, не включая саму точку x. Приходится дополнительно предполагать, что событие {Xx}, в противном случае функция распределения была бы не определена.

Дискретную случайную величину можно задавать её функцией распределения. Нетрудно сообразить, что это будет ступенчатая функция с разрывами в точках xk и скачками pk в этих точках:

F(x)P{Xx}P{Xxk}pk,

где суммирование ведётся по всем тем возможным значениям X, которые оказались меньше x.

Если существует такая функция p(x), которая позволяет представить функ­цию распределения интегралом:

F(x)p(x)dx,

то случайная величина X называется непрерывной, а p(x) плотностью вероятности случайной величины X.

Функция распределения F(x) непрерывной случайной величины является непрерывной функцией (отсюда и название случайной величины), и, более того, – дифференцируемой функцией: F(x)p(x).

В более общем случае случайная величина X может принадлежать к смешанному типу: вероятность распределяется как между отдельными точками (дискретная составляющая), так и на интервалах (непрерывная составляющая). Если отдельным точкам xk достались вероятности pk, а остальная вероятность пошла на непрерывное распределение с линейной плотностью p(x), то:

F(x)P{Xx}P{Xxk}p(x)dx.

Если суммарная вероятность, доставшаяся точкам xk случайной величины X смешанного типа, равна A (pkA), а на непрерывное распределение X ухо­дит вероятность B, (p(x)dxB), то AB1.

Можно считать, что случайная величина X является смесью двух случайных величин: дискретной Y с возможными значениями xk и вероятностями pk и непрерывной Z с плотностью p(x). Функция распределения X имеет вид: F(x)AFY(x)BFZ(x).

Вообще, если имеются случайные величины Xi, i1, 2,  , n с функциями распределения FXi(x), то смесью этих случайных величин называют случайную величину с функцией распределения

F(x)AiFXi(x),

где числа Ai удовлетворяют условиям: 0Ai1, A1A2An1, и играют роль весовых множителей, они регулируют вклад в смесь отдельных составляющих. Функция F(x), очевидно, обладает необходимыми свойствами функции распределения и может задавать случайную величину.

^ Основные свойства функции распределения F(x)
и плотности вероятности
p(x)

1. Считаем, что случайная величина X или совсем не принимает значений  или почти наверное их не принимает: P{X}P{X}0. При этом предположении:

F(x)F()0, F(x)F()1.

2. F(x) – монотонно-неубывающая функция:

x1x2  F(x1)F(x2).

Действительно: {Xx2}{Xx1}{x1Xx2}. Справа стоит сумма двух несовместимых событий. Поэтому:

P{Xx2}P{Xx1}P{x1Xx2},

или:

F(x2)F(x1)P{x1Xx2}

и неравенство F(x2)F(x1) следует из неотрицательности вероятности P{x1X
x2}.

3. В доказательстве второго свойства мы выразили через функцию распределения вероятность попадания случайной величины ^ X в полуоткрытый интервал:

P{x1Xx2}F(x2)F(x1).

4. Перепишем последнее равенство, взяв x1x, x2x, >0:

P{xXx}F(x)F(x).

Перейдём здесь к пределу при 0: P{Xx}F(x)F(x)F(x0)F(x). Таким образом, для любой случайной величины X вероятность любого конкретного значения равна скачку F(x0)F(x) её функции распределения в точке x. Во всех точках непрерывности F(x) этот скачок и, следовательно, вероятность P{Xx}, равны нулю. Для непрерывных случайных величин все точки таковы, и ни одной из них не досталось положительной вероятности.

Если мы наблюдаем непрерывную случайную величину и получили значение Xx, то мы получили пример события A{Xx}, вероятность которого равна нулю, которое, однако, произошло, а событие {Xx}, вероятность которого рана единице, не произошло. Ясно, что повторить появление события A почти наверное не удастся.

Так как функция распределения определена равенством F(x)P{Xx}, где под знаком вероятности стоит строгое неравенство, то вероятность, возможно сосредоточенная в точке x, не учитывается, поэтому F(x) – функция, непрерывная слева:

F(x)F(x0)F(x).

5. Теперь нетрудно выразить через F(x) вероятность попадания случайной величины в произвольный интервал:

P{x1Xx2}F(x20)F(x1),
P{x1Xx2}F(x2)F(x10),
P{x1Xx2}F(x20)F(x10).

6. Плотность вероятности p(x) неотрицательна. Это следует из монотонного неубывания F(x).

7. Переходя к пределу при x в равенстве F(x)p(x)dx, и учитывая, что F()1, получим условие нормировки для непрерывной случайной величины:

p(x)dx1.

Геометрический смысл этого равенства: площадь под кривой плотности вероятности всегда равна единице.

8. Общее правило вычисления вероятностей для дискретной и непрерывной случайной величины: если ^ A –– некоторое числовое множество на вещественной оси, то

P{XA}P{Xxk},
P{XA}p(x)dx

и ясно, что в непрерывном случае вероятность событий {XA} определена лишь для таких множеств A , для которых имеет смысл интеграл p(x)dx.

9. Мы считаем, что задавая произвольную функцию F(x) с обязательными свойствами функции распределения: монотонное неубывание, непрерывность слева, F()0, F()1, – мы задаём некоторую случайную величину. Если F(x) – ступенчатая функция, то она задаёт дискретную случайную величину: точки скачков – её возможные значения, величины скачков – их вероятности.

Дискретную случайную величину можно задать таблицей её возможных значений и их вероятностей: xk, pk, k1, 2,  , n, лишь бы были pk0 и pk1.

Непрерывную случайную величину можно задать плотностью вероятности p(x). В качестве таковой может служить любая неотрицательная функция, удовлетворяющая условию нормировки: p(x)dx1.

Основные случайные величины

Любой сходящийся интеграл от неотрицательной функции порождает непрерывное распределение. Именно, если (x)dxI, то роль плотности играет


p(x)
(x), если xA,
0, если xA.

Любая конечная сумма или сходящийся ряд с неотрицательными слагае­мыми порождает дискретное распределение. Именно: если qkS, то роль дискретных вероятностей играют pkqk, а в качестве xk можно взять любые числа; наиболее простой выбор: xkk.

Рассмотрим конкретные примеры.

1. Равномерное распределение. Его порождает интеграл dxba.


p(x)
, если xa, b,
0, если xa, b.

Этот закон распределения будем обозначать R(a, b); числа a и b называются параметрами распределения. Тот факт, что случайная величина X равномерно распределена на отрезке a, b, будем обозначать следующим образом: XR(a, b).

В частности, плотность случайной величины XR(0, 1) имеет наиболее простой вид:

1
p(x)
, если x0, 1,
0, если x0, 1.

Функция распределения такой случайной величины равна:

0
F(x)
, если x0,
x, если 0x1,
1, если x0.

Если мы наугад выбираем точку на отрезке 0, 1, то её абсцисса x является конкретным значением случайной величины XR(0, 1). Слово ''наугад" имеет в теории вероятностей терминологическое значение и говорится с целью подчеркнуть, что соответствующая непрерывная случайная величина распределена равномерно, или дискретная случайная величина имеет конечное число N возможных равновероятных значений.

2. Экспоненциальное распределение.

Его порождает интеграл exdx, 0.

П
p(x)
лотность вероятности, очевидно, равна

ex, если x0,
0, если x0,

а
F(x)
функция распределения:

1ex, если x0,
0, если x0.

То обстоятельство, что случайная величина распределена по экспоненциальному закону, будем записывать так: XExp(),  называется параметром распределения (0).

3. Распределение Коши. Его порождает интеграл dx.

Плотность вероятности: p(x), x.

4. Гамма-распределение. Его порождает интеграл, который определяет гамма-функцию: ()ett1dt, 0. Выполним в этом интеграле замену переменной, положим: tx, 0:

()exx1dx.

С
p(x)
оответствующая плотность вероятности равна:

x1ex, если x0,
0, если x0.

Будем обозначать это распределение (, ),  и  – параметры распределения (0, 0).

5. Нормальное распределение. Его порождает интеграл Пуассона:

Idx.

Докажем это равенство. Интеграл бы легко вычислялся, если бы подынтегральное выражение содержало множитель x. Такой множитель можно ввести под знак интеграла с помощью следующего остроумного приёма.

Запишем квадрат интеграла в следующем виде:

I2dxdy,

а теперь представим произведение интегралов как двойной интеграл:

I2dxdy.

Перейдём в этом интеграле к полярным координатам. Положим: xrcos, y
rsin, и ещё вспомним, что абсолютная величина якобиана при переходе от декартовых координат к полярным равна r. Заметим, наконец, что областью интегрирования двойного интеграла является вся плоскость, так что границы изменения переменных r и , соответственно, таковы: r[0; ), [0; 2). Поэтому:

I2drdr.

Теперь легко убедиться, что rdr1, а потому I22.

Распределение с плотностью

p(x), x(; )

называется стандартным нормальным законом и обозначается N(0, 1).

Ему соответствует функция распределения:

F0(x)dx.

Обычно принято табулировать интеграл

(x)dx,

называемый интегралом ошибок или интегралом Лапласа. Функция распределения стандартного нормального закона просто выражается через этот интеграл:

F0(x)(x).

Если в интеграл Пуассона ввести параметры масштаба и сдвига с помощью замены переменной, заменив x на , то он примет вид:

dx1.

Случайную величину с плотностью вероятности

p(x), x(; ),

называют нормально распределённой случайной величиной или просто нормальной. Соответствующий ей закон распределения обозначают N(a, ), a и  – параметры распределения (0, a – любое вещественное число).

График p(x) представлен на рис. 1.




p(x)

O

x

a

Рис. 1.



a – точка максимума p(x), его значение равно . Так как площадь под кривой всегда равна единице, то чем меньше , тем больше вероятности сосредоточивается вблизи максимума. Таким образом, устанавливаем вероятностный смысл параметров нормального закона: областью наиболее вероятных значений нормальной случайной величины является окрестность точки a, а  указывает на степень концентрации вероятности в окрестности точки a – чем меньше , тем менее вероятны заметные отклонения X от a.

Функцию распределения произвольного нормального закона легко выразить через интеграл Лапласа. Для этого нужно в выражении для функции распределения

F(x)dx

выполнить замену переменной, положив y:

F(x)dy().

6. Геометрическое распределение. Его порождает геометрическая прогрессия: qk1, 0q1.

Соответствующая дискретная случайная величина имеет возможные значения xkk, k1, 2,  с вероятностями pk(1q)qk1. Обозначение геометрического распределения: G(q), qпараметр распределения (0q1).

7. Пуассоновское распределение. Его порождает разложение в ряд показательной функции: e, 0, которому отвечает дискретная случайная величина, принимающая целые неотрицательные значения xkk, k0, 1, 2,  с вероятностями pk.

Будем обозначать это распределение через (),  – параметр распределения (0).

8. Биномиальное распределение. Его порождает формула бинома Ньютона: (pq)npmqnm.

Чтобы сумма вероятностей распределения pk равнялась единице и все они были положительными, возьмём p0, q0, pq1, т. е. q1p. Возможными значениями будем считать xkk, k0, 1, 2,  , n, а их вероятностями – pkpkqnk. Обозначим это распределение B(n, p), n и pпараметры распределения (0p1, nN, т. е. n – натуральное число).

Биномиальная случайная величина появляется, например, в схеме Бернулли, называемой также схемой последовательных независимых испытаний. Состоит она в следующем: осуществляется некоторый комплекс условий, при котором мы имеем одно и только одно из двух событий: либо "успех", либо "не­удачу", причём вероятность "успеха" равна p, вероятность "неудачи" равна q
1p; эта попытка независимым образом повторяется n раз. Считая опытом все n попыток, можем считать элементарным событием опыта цепочку длины n, полученных в результате опыта "успехов" (У) и "неудач" (Н): УУУННУ
НУ.

Определим случайную величину X, задав её как число успехов в одном опыте. Событию {Xk} благоприятствуют те элементарные события, которые содержат "успех" ровно k раз, а "неудачу" – остальные nk раз. Число таких благоприятствующих событию {Xk} элементарных событий, равно, очевидно, , а вероятности всех их одинаковы и по теореме умножения для независимых событий равны pkqnk. Окончательно получаем: P{Xk}pkqnk, а возможными значениями случайной величины X оказываются числа xkk, k
0, 1, 2,  n. Таким образом, число успехов X в схеме Бернулли – биномиальная случайная величина: XB(n, p).

Пусть имеется вероятностное пространство (, , P()) и рассматривается некоторое событие A. Обозначим его вероятность P(A)p. Пусть испытание независимым образом повторяется n раз, причём событие A в этих n последовательных попытках наблюдалось k раз. Число k называется абсолютной частотой события A. Оно является конкретным значением случайной величины X, определённой на серии из n независимых испытаний. Ничто не мешает объявить событие A "успехом", а событие – "неудачей". Это превращает последовательность из n испытаний в схему Бернулли, а абсолютная частота события A оказывается распределённой по закону Бернулли.

Геометрическое распределение также просто связано со схемой Бернулли: будем повторять попытку до появления первого "успеха". Элементарным событием в таком опыте является цепочка, у которой "успех" расположен только на последнем (k-м) месте, а на всех предыдущих местах (а их k1) – только "не­удачи": ННННННУ. Свяжем с этим опытом случайную величину X – общее число попыток в опыте. Очевидно, значениями этой случайной величины могут быть xkk, k1, 2, 3,  , а их вероятности pkqk1p, что и совпадает с геометрическим распределением G(p).
  1   2   3   4   5   6



Скачать файл (3589.5 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru