Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Математический анализ+теория вероятности - файл 1.docx


Математический анализ+теория вероятности
скачать (126.4 kb.)

Доступные файлы (1):

1.docx127kb.29.11.2011 20:59скачать

содержание
Загрузка...

1.docx

Реклама MarketGid:
Загрузка...

Билет №5

Ур-е Бернули


Одно из немногих ур-ий котор м.б. проинтегрировано.

ДУ м.б. проинт. если его общ реш-е можно представить через элементар. ф-ии и операции интегрир

ДУ бернули наз ур-е вида

x=a(t)x+b(t)x^ (9)

a(t) и b(t) непр на (a,b) -конст

если =0 то получ ЛНДУ(не однор)

если =1 то получ ЛОДУ (однор)

x/x^=a(t)(x/x^)+b(t);

(d/dt)(x^(1-))=(1-)(1/x^)x

(1-)(x/x^)=(1-)a(t)x^(1-)+(1-)b(t)

(d/dt)(x^(1-))=(1-)a(t)x^(1-)+b(t)(1-)

y:=x^(1-) (10)

y=(1-)a(t)y+b(t)(1-) (11)

Для новой перем у соотв ДУ явл неоднор

Согластно ф-ле (7)

y=ce^[(1-)((t0,t)∫a()d)]+ (t0,t)∫e^[(1-)((t0,)∫a()d)d]b(s)

x=y^(1/(1-))

(12) x={ce^[(1-)((t0,t)∫a()d)]+ (1-)(t0,t)∫e^[(1-)((t0,)∫a()d)d}b()}

Далее для реш нач задачи из этой или (8) ф-лы

x(t)={(x0^(1-))e^[(1-)(t0,t)∫a()d]+(1-)(t0,t)∫e^[(1-)(,t)∫a()d]b(s)ds}^1/(1-) (13)
Распределение Пуассона Когда требуется спрогнозировать ожидаемую очередь и разумно сбалансировать число и производительность точек обслуживания и время ожидания в очереди. Пуассоновским называют закон распределения дискретной случайной величины Х числа появления некоторого события в n-независимых опытах если вероятность того, что событие появится ровно m раз определяется по формуле.

a=np

n-число проведенных опытов

р-вероятность появления события в каждом опыте

В теории массового обслуживания параметр пуассоновского распределения определяется по формуле

а=λt , где λ - интенсивность потока сообщений t-время

Необходимо отметить, что пуассоновское распределение является предельным случаем биномиального, когда испытаний стремится к бесконечности, а вероятность появления события в каждом опыте стремится к 0. Пуассоновское распределение является единичным распределением для которого такие характеристики как мат. Ожидание и дисперсия совпадают и они равны параметру этого закона распределения а.
Билет №16

Интервальные оценки



  Интервальной называют оценку, которая определяется двумя числами—концами интервала. Интервальные оценки позволяют установить точность и надежность оценок .

Пусть найденная по данным выборки статистическая характеристика Q* служит оценкой неизвестного пара

метра Q. Будем считать Q постоянным числом (Q может быть и случайной величиной). Ясно, что Q* тем точнее определяет параметр Q, чем меньше абсолютная величина разности |Q- Q*|. Другими словами, если d>0 и |Q- Q*| <d , то чем меньше d , тем оценка точнее.

  ^ Таким образом, положительное число d характеризует точность оценки.

Однако статистические методы не позволяют категорически утверждать, что оценка Q* удовлетворяет неравенству |Q- Q*| <d; можно лишь говорить о вероятности g, с которой это неравенство осуществляется.

  ^ Надежностью (доверительной вероятностью) оценки называют вероятность g , с которой осуществляется неравенство |QQ* | <d .

Обычно надежность оценки задается наперед, причем в качестве g берут число, близкое к единице. Наиболее часто задают надежность, равную 0,95; 0,99 и 0,999.

Пусть вероятность того, что, |Q- Q*| <d равна g:

P(|Q- Q*| <d)= g.

Заменив неравенство равносильным ему двойным неравенством получим:

Р [Q* —d< Q < Q* +d] = g

  Это соотношение следует понимать так: вероятность того, что интервал Q* - d< Q < Q* +d заключает в себе (покрывает) неизвестный параметр Q, равна g.

  ^ Интервал (Q* - d Q* +d) называется доверительным интервалом , который покрывает неизвестный параметр с надежностью g.

Билет №1

1.Случайные события,их вероятность.Случайным называют событие, которое при осуществлении совокупности условий S может либо произойти, либо не произойти. Каждое случайное событие есть следствие действия многих случайных причин Таким образом, события будет рассматривается как результат испытания.Классификация случайных событий. Полной группой событий называются несколько событий таких, что в результате опыта непременно должно произойти хотя бы одно из них. События называют несовместными, если появление одного из них исключает появления других событий в одном и том же испытании. События называют равновозможными, если есть основания считать, что ни одно из них не является более возможным, чем другое.Классическая формула вероятности Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу. Итак, вероятность события А определяется формулой P(A) = m/n, где m-число элементарных исходов, благоприятствующих А; n-число всех возможных элементарных исходов испытания. Здесь предполагается, что элементарные исходы не совместны, равновозможные и образуют полную группу. Из определения вероятности вытекает следующие свойства: 1.Вероятность достоверного события равна единице. 2.Вероятность невозможного события равна нулю. 3.Вероятность случайного события есть положительное число, заключенное между нулем и единицей. Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных исходов испытания. В этом случае 0<m<n, значит, 0 <m/n<1, следовательно, 0<P(A)<1. Итак, вероятность любого события удовлетворяет двойному неравенству 0 <= P(A)<= 1.

Основные понятия:

1) Событие называется случайным если в данном опыте оно может как произойти так и не произойти.

2) Событие называется достоверным если оно происходит при любом проведении данного эксперимента.



3) Событие которое в данном эксперименте произойти не может называется не возможным событием.

4) События называются несовместимыми если появление одного из них исключает появление другого, в противном случае события - совместные.

Операции над событиями:

1) Событие А называется частным случаем события В если появление события А влечет за собой появление события В (т.е. А включено В).

2) Если А включено в В и В включено в А, то событие А и В равносильны (равные).

3) Суммой или объединением двух событий А и В называется такое событие С, которое происходит если произойдет событие А или событие В или А и В одновременно.

4) Произведением или пересечение соб А и соб В называется такое соб С, которое заключается в осуществлении соб А и соб В одновременно.

5) Разность соб А и соб В называется соб С состоящкк в том, что А происходит, а В не происходит.

6) Событие А(сверху с чертой) называется противоположное соб А, если оно происходит тогда когда соб А не происходит.

Свойства операций:

1) А+В=В+А

2)А+А=А

3)А+(В+С)=(А+В)+С=(А+С)+В

4)А+(пустое множество)=А

5)А+Л(пространство элементарных событий)=Л

6)А*В=В*А

7)А*(В*С)=(А*В)*С

8)А*А=А

9)А*Л=А

10)А*(пустое множество)=(пустое множество)

11)А*(не)А=(пустое множество)

12)А-В не равно В-А

13)А-(пустое множество)=А

14)А-Л=(пустое множество)

15)А-А=(пустое множество



Билет №4

.Формула полной вероятности Пусть событие А может появиться вместе с одним из образующих полную группу попарнонесовместных событий Н12…Нn называемых гипотезами, тогда вероятность события А вычисляется как сумма произведений вероятностей каждой гипотезы на вероятность события А при этой гипотезеФормула Бейса Пусть имеется полная группа попарнонесовместных гипотез Н12…Нn с известными вероятностями появления. В результате проведения опыта появилось некоторое события А, требуется переоценить вероятности гипотез при условии, что событие А произошло

Билет №6

Дискретная случайная величина. Функция распределения Опытом называется всякое осуществление определенных условий и действий при которых наблюдается изучаемое случайное явление. Опыты можно характеризовать качественно и количественно. Случайной называется величина, которая в результате опыта может принимать то или иное значение., причем заранее не известно какое именно. Случайные величины принято обозначать (X,Y,Z), а соответствующие им значения (x,y,z)Дискретными называются случайные величины принимающие отдельные изолированные друг от друга значения, которые можно переоценить. Непрерывными величины возможные значение которых непрерывно заполняют некоторый диапазон. Законом распределения случайной величины называется всякое соотношение устанавливающее связь между возможными значениями случайных величин и соответствующими им вероятности. Ряд и многоугольник распределения. Простейшей формой закона распределения дискретной величины является ряд распределения. Графической интерпретацией ряда распределения является многоугольник распределения.

^ Функция распределения случайной величины.Для непрерывных случайных величин применяют такую форму закона распределения, как функция распределения. Функция распределения случайной величины Х, называется функцией аргумента х, что случайная величина Х принимает любое значение меньшее х (Х<х) F(х)=Р(Х<х) F(х) - иногда называют интегральной функцией распределения или интегральным законом распределения. Функция распределения обладает следующими свойствами:

  1. 0<F(х)<1

  2. если х12,то F(х1)>F(х2)



функция может быть изображена в виде графика. Для непрерывной величины это будет кривая изменяющееся в пределах от 0 до 1, а для дискретной величины - ступенчатая фигура со скачками.С помощью функции распределения легко находится вероятность попадания величины на участок от α до β

Р(α<х<β) рассмотрим 3 события

А - α<Х

В - α<Х<β



С - Х<β

С=А+В

Р(С)=Р(А)+Р(В)

Р(α<х<β)=Р(α)-Р(β)

Билет №7

Числовые характеристики дискретных случайных величин Модой (Мо) случайной величины х называется наиболее вероятное ее значение. Это определение строго относится к дискретным случайным величинам. Для непрерывной величины модой называется такое ее значение для которого ф-ция плотности распределения имеет максимальную величину. Медианой (Ме) случайной величины называется такое ее значение для которого окажется ли случайная величина меньше этого значения. Для непрерывной случайной величины медиана это абсцисса точки в которой площадь под кривой распределяется пополам. Для дискретной случайной величины значение медианы зависит от того четное или нечетное значение случайной величины n=2k+1, то Ме=хк+1 (среднее по порядку значение) Если значение случайных величин четное, т.е n=2k, то

^ Математическое ожидание случайной величины. Математическим ожиданием случайной величины х (M[x])называется средне взвешенно значение случайной величины причем в качестве весов выступают вероятности появления тех или иных значений. Для дискретной случайной величины

Для непрерывной

С механической точки зрения мат. Ожидание это абсцисса центра тяжести системы точек расположенных по одноименной оси. Размерность мат. Ожидания совпадает с размерностью самой случайной величины. Математическое ожидание случайной величины всегда больше наименьшего значения и меньше наибольшего

Билет №9

Непрерывная случайная величина. Дифференциальные и интегральные функции. Интегральная функция F(x)=P(X < x) Геометрический смысл интегральной функции распределения – это вероятность того, что случайная величина X примет значение, которое на числовой оси лежит левее точки x.Свойства интегральной функции распределения: Значения 

интегральной функции распределения принадлежат отрезку [0;1]: .Вероятность того, что случайная величина X примет значение, заключенной в интервале (a,b), равна приращению интегральной функции распределения на этом интервале Если все возможные значения x случайной величины принадлежат интервалу (a, b), то , если ,если

Для описания распределения вероятностей непрерывной случайной величины используется дифференциальная функция распределения. Дифференциальная функция распределения (ДФР) (или плотность вероятности) – это первая производная от интегральной функции. Интегральная функция распределения является первообразной для дифференциальной функции распределения. Тогда Вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (a,b), равна определенному интегралу от дифференциальной функции, взятому в пределах от a до b: Геометрический смысл ДФР состоит в следующем: вероятность того, что непрерывная случайная величина X примет значение, принадлежащее интервалу (a, b), равна площади криволинейной трапеции, ограниченной осью x, кривой распределения f(x) и прямыми x = a и x = b

^ Свойства дифференциальной функции распределения: Дифференциальная функция распределения неотрицательна. Если все возможные значения случайной величины принадлежат интервалу (a, b), то Так как дифференциальная функция распределения равна f(x)=F’(x), то можно записать (6.1) т. е. предел отношения вероятности того, что непрерывная случайная величина примет значение, принадлежащее интервалу к длине этого интервала (при ), равен значению дифференциальной функции распределения в точке x. Аналогичное (6.1) определение дается в механике для определения плотности массы в точке (если масса распределена вдоль оси X по закону F(x)), поэтому в теории вероятности для дифференциальной функции распределения f(x) часто используется термин "плотность вероятности в точке". На основании (6.1) запишем: (6.2)Вероятностный смысл дифференциальной функции распределения на основании (6.2) таков: вероятность того, что случайная величина примет значение принадлежащее интервалу приближенно равна произведению плотности вероятности в точке x на длину интервала или (на графике) площади 

прямоугольника с основанием и высотой f(x). Дифференциальную функцию распределения часто называют законом распределения вероятностей непрерывных случайных величин.

11.Численные характеристики непрерывных случайных величин Математическим ожиданием Дисперсия

12.Мода и медиана случайной величины Модой (Мо) случайной величины х называется наиболее вероятное ее значение. Это определение строго относится к дискретным случайным величинам. Для непрерывной величины модой называется такое ее значение для которого ф-ция плотности распределения имеет максимальную величину. Медианой (Ме) случайной величины называется такое ее значение для которого окажется ли случайная величина меньше этого значения. Для непрерывной случайной величины медиана это абсцисса точки в которой площадь под кривой распределяется пополам. Для дискретной случайной величины значение медианы зависит от того четное или нечетное значение случайной величины n=2k+1, то Ме=хк+1 (среднее по порядку значение) Если значение случайных величин четное, т.е n=2k, то

Билет №10

Равномерное распределение Закон равномерного распределения вероятностей непрерывной случайной величины используется при имитационном моделировании сложных систем на ЭВМ как первоначальная основа для получения всех необходимых статистических моделей. При этом, если специально не оговорен закон распределения случайных чисел, то имеют ввиду равномерное распределение. Распределение вероятностей называют равномерным, если на интервале (a,b), которому принадлежат все возможные значения случайной величины, дифференциальная функция распределения имеет постоянное значение, т. е. f(x) = C. Так как то Отсюда закон равномерного распределения аналитически можно записать так: График дифференциальной функции равномерного распределения вероятностей представлен на рис. 6.5 Рис. 6.5. Интегральную функцию равномерного распределения аналитически можно записать так: 

График интегральной функции равномерного распределения вероятностей представлен на рис. 6.6

Нормальный закон распределения В начале XIX века нормальное распределение затмило собой все остальные, поскольку в работах Гаусса и Лежандра утверждалось о нормальном законе распределения ошибок наблюдений. Нормальный закон распределения (или распределение Гаусса) задается следующей дифференциальной функцией параметры .

( - max = а - , x = а + - точки перегиба.

Билет №8

Биномиальное распределение. Биномиальным называют законы распределения случайной величины Х числа появления некоторого события в n опытах если вероятность р появления события в каждом опыте постоянна

Сумма вероятностей представляют собой бином Ньютона

Для определения числовых характеристик в биномиальное распределение подставить вероятность которая определяется по формуле Бернули.

При биномиальном распределении дисперсия равна мат. Ожиданию умноженному на вероятность появления события в отдельном опыте.

Билет №2

Классическое определение вероятности:

Вероятностью соб А называется отношение числа m благоприятных для соб А исходов в эксперименте к числу n всевозможных элементарных исходов эксперимента.

P(A)=m/n

(предполагается, что все элементарные соб равно возможны)

Свойства вероятности:

1) 0<=P(A)<=1



2) P(пустое множество)=0

3) P(Л)=1

4) P(A)+P(не А)=1

5) P(A+B)=P(A)+P(B)? где А и В не совместимы

Геометрическое определение вероятности:

Пусть Л измеримая область. Меру области обозначим М(Л). g-измеримая подобласть облсти Л.

Вероятность соб А называется отношение мер областей g и Л

P(A)=M(g)/M(Л)
Билет №2

Теорема сложения вероятностей для несовместных событий:

P(A + B) = P(A) + P(B) - вероятность наступления в результате эксперимента хотя бы одного из двух несовместных событий равна сумме вероятностей этих событий.

Обсуждение. Напомним, что события А и В называются несовместными, если в результате опыта они не могут появиться вместе.

Общая теорема сложения вероятностей:

Р(С)=Р(А)+Р(В)-Р(АВ), где Р(АВ) - вероятность одновременного наступления и события А, и события В.

Условная вероятность — вероятность одного события при условии, что другое событие уже произошло.

Пусть (Omega,F,P) — фиксированное вероятностное пространство. Пусть A,B принадлежат F суть два случайных события, причём P(B)>0. Тогда условной вероятностью события A при условии события B называется

P(A|B) = P(A в объединении с B)/P(B).

Два события А и В называются независимыми, если вероятность одного из них не зависит от того, произошло или не произошло другое.

Произведением независимых событий А и В называется событие С = А·В, заключающееся в том, что произошло и событие А, и событие В.

Рассмотрим два независимых события А и В. Пусть событию А благоприятствуют m исходов из общего числа n исходов P(A)= m/n. Событию В - соответственно k и l исходов P(B)= k/l.Тогда для события С = А·В по правилу произведения благоприятных исходов будет m · k, а общее число - n · l.

P(C)=P(AB)=mk/nl=m/n*k/l=P(A)*P(B)

Вероятность произведения независимых событий равна произведению их вероятностей.

P(AB)=P(A)·P(B)

Например, вероятность выпадения двух гербов при бросании двух монет будет равна 0,5 · 0,5 = 0,25, а вероятность появления трех шестерок подряд при трех бросках игральной кости 1/6·1/6·1/6= 1/216.


Скачать файл (126.4 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации
Рейтинг@Mail.ru