Logo GenDocs.ru

Поиск по сайту:  

Загрузка...

Шпаргалка - Теорія ймовірностей - файл 1.doc


Шпаргалка - Теорія ймовірностей
скачать (1138 kb.)

Доступные файлы (1):

1.doc1138kb.18.12.2011 09:36скачать

содержание
Загрузка...

1.doc

Реклама MarketGid:
Загрузка...

3.Класичне і геометричне означення ймовірності


Класичною імовірністю випадкової події А називається відношення кількості елементарних подій m, які сприяють появі цієї події (становлять множину її елементарних подій), до загальної кількості n рівноможливих елементарних подій, що утворюють простір елементарних подій : P(A)= m /n.

Переставленням із n елементів називають такі впорядковані множини з n елементів, які різняться між собою порядком їх розміщення. Кількість таких упорядкованих множин обчислюється за формулою: Pn = n!

Розміщенням із n елементів по m

(0 mn) називаються такі впорядковані множини, кожна із яких містить m елементів і які відрізняються між собою порядком розташування цих елементів або хоча б одним елементом: = n! /(n-m)!

Комбінаціями з n елементів по m

(0 mn) називаються такі множини з m елементів, які різняться між собою хоча б одним елементом: = n! / m!(n-m)! Геометричне означення ймовірності. Якщо простір елементарних подій  можна подати у вигляді деякого геометричного предмета, а множину елементарних подій для подій А – як частину цього геометричного образу, то ймовірність події А визначається як відношення мір цих множин P(A)=(A)/().При цьому вважається, що попадання в деяку частину геометричного образу пропорційна до міри цієї його частини.

Статистичною ймовірністю події А називається відношення кількості m випробувань, в яких подія А відбулась, до загальної кількості виконаних випробувань n: W(A)= m /n. Знаходження статистичної ймовірності пов’язане з проведенням n випробувань, тому вона називається ще частістю, або відносною частотою, події.
^

4.Алгебра подій


Система подій називається алгеброю подій, якщо:



  1. із того, що , випливає, що: , ,

Числова функція P, що визначена на системі подій , називається ймовірністю, якщо:

  1.  є алгеброю подій;

  2. для будь-якого A  існує P(A)0;

  3. P()=1;

  4. якщо А і В є несумісними (АВ)=, то P(AB)=P(A)+P(B);

  5. для будь-якої спадної послідовності подій із , такої, що

випливає рівність

,
Трійка (), де  є алгеброю подій і Р задовольняє аксіоми 1-5, називається простором імовірностей.
^

5.Теоремадодавання ймовірностей двох несумісних подій

6.Залежні та незалежні події. Умовна ймовірність


Події В і С називаються залежними, якщо ймовірність однієї з них змінюється залежно від того, відбулась друга подія чи ні. У противному разі події називаються незалежними

Умовна ймовірність та її властивості.

Імовірність події ^ A, визначена за умови, що подія В відбулася, називається умовною і позначається P(A/B). P(A/B)= P(AB) / P(B), P(B)0. Властивості умовної ймовірності:

P(A/B)=0, якщо =

  1. P(A/B)=1, якщо =B

  2. у решті випадків 0<P(A/B)<1.
^

7.Теорема множення ймовірностей двох незалежних подій. Наслідок

8.Ймовірність появи хоча б однієї події

9.Теорема множення ймовірностей двох залежних подій. Наслідок

10.Теорема додавання ймовірностей двох сумісних подій

11.Формула повної ймовірності


Нехай подія А може відбутися тільки за умови настання однієї із несумісних подій (i = 1, 2,…, n), які утворюють повну групу. Тоді ймовірність події А подається формулою:



де — імовірність події — умовні ймовірності настання події А.

Наведена залежність називається формулою повної ймовірності.
^

12.Формула Баєса


Подія А може відбутись одночасно з деякою із подій Відомі ймовірності подій та умовні ймовірності того, що подія ^ А відбудеться. Відомо, що в результаті випробування подія А відбулась. Потрібно з огляду на це переоцінити ймовірності гіпотез Для цього застосовують формулу Баєса:


^

13.Формула Бернуллі


Імовірність того, що в n незалежних випробуваннях, у кожному з яких імовірність Р(А) = р, подія А відбудеться m раз, подається так:

Формула застосовується, якщо

Імовірність того, що в результаті n незалежних експериментів подія А з’явиться від mi до mj раз, обчислюється так:
^

14.Локальна теорема Лапласа


Імовірність того, що в n незалежних випробуваннях, у кожному з яких Р(А) = р, подія А відбудеться m раз, подається такою наближеною залежністю:





Локальна теорема Лапласа дає змогу обчислювати ймовірності , якщо n > 10 i p > 0,1.
^

15.Інтегральна теорема Лапласа


Імовірність того, що подія А відбудеться від до раз при проведенні n незалежних випробувань, у кожному з яких подія А відбувається з імовірністю р, подається формулою:

—функція Лапласа;



Значення функції Лапласа наводяться у спеціальних таблицях.
^

16.Найвірогідніше число появи події в n-випробуваннях


Імовірність того, що в n незалежних випробуваннях, у кожному з яких імовірність Р(А) = р, подія А відбудеться m раз, подається так:

Формула застосовується, якщо

Імовірність того, що в результаті n незалежних експериментів подія А з’явиться від mi до mj раз, обчислюється так:
^

17.Випадкові величини. Дискретні та неперервні випадкові величини


Випадковою називається величина, яка може набувати різних числових значень. Строгіше означення випадкової величини пов’язане з поняттям простору елементарних подій. Нехай задано простір елементарних подій . Однозначна числова функція яку задано на просторі елементарних подій, називається випадковою величиною. Якщо простір  дискретний, то випадкова величина дискретна. Неперервному простору елементарних подій відповідає неперервна випадкова величина.

18. Закон розподілу ймовірностей дискретної випадкової величини. Функція розподілу Співвідношення між значеннями випадкової величини і їхніми ймовірностями називається законом розподілу випадкової величини.


Для дискретних випадкових величин закони розподілу можуть задаватися множиною значень, що їх набуває випадкова величина, і ймовірностями цих значень.

Якщо то або, якщо величина набуває зліченної множини значень, то Закони розподілу дискретних випадкових величин задаються у табличній формі (подаються значення випадкової величини і їхні ймовірності), аналітичній (наводиться формула, за якою обчислюються ймовірності для заданих значень випадкової величини), графічній (у прямокутній системі координат задається набір точок сполучивши точки відрізками прямих, дістане­мо многокутник розподілу ймовірностей). Універсальним способом задання закону розподілу ймовірностей є функція розподілу Цю функцію можна тлумачити так:унаслідок експерименту випадкова величина може набути значення,меншого за х. Для дискретних величин

Функція розподілу — неспадна, неперервна зліва,

Для довільних
^

19.Рівномірний та біноміальний розподіл


Імовірності в цьому законі визначаються за формулою m = 0,1,2, …, n. Закон справджується для схеми незалежних повторних випробувань, у кожному з яких подія А настає з імовірністю р. Частота настання події А має біноміальний закон розподілу. Імовірнісна твірна: Імовірності в цьому законі визначаються за формулою m = 0,1,2, …, n. Закон справджується для схеми незалежних повторних випробувань, у кожному з яких подія А настає з імовірністю р. Частота настання події А має біноміальний закон розподілу. Числові характеристики розподілу:



Пуасонівський закон: M(X)=a=np; D(X)=a; P(X)=a. Якщо ймовірність потрапляння випадкової величини на інтервал пропорційна до довжини інтервалу і не залежить від розташування інтервалу на осі, то вона має рівномірний закон розподілу. Щільність такого розподілу:



Рівномірний закон розподілу легко моделювати. За допомогою функціональних перетворень із величин, розподілених рівномірно, можна діставати величини з довільним законом розподілу. Числові характеристики розподілу:


^

20.Розподіл Пуассона


Дискретна випадкова величина має розподіл Пуассона, якщо вона набуває зліченної множини значень з імовірностями Цей розподіл описує кількість подій, які настають в однакові проміжки часу за умови, що ці події відбуваються незалежно одна від одної зі сталою інтенсивністю. Розподіл Пуассона розглядається як статистична модель для кількості альфа-частинок, що їх випромінює радіоактивне джерело за певний проміжок часу; кількості викликів, які надходять на телефонну станцію за певний період доби; кількості вимог щодо виплати страхових сум за рік; кількості дефектів на однакових пробах речовини і т. ін. Розподіл застосовується в задачах статистичного контролю якості, у теорії надійності, теорії масового обслуговування. Математичне сподівання і дисперсія в цьому розподілі однакові і дорівнюють а. Для цього розподілу складено таблиці щодо різних значень (0,1 – 20). У таблицях для відповідних значень а наведено ймовірності

Якщо у схемі незалежних повторних випробувань n велике і р або 1 – р прямують до нуля, то біноміальний розподіл апроксимується розподілом Пуассона, коли

Ймовірна твірна
^

21.Математичне сподівання дискретної випадкова величина. Властивості математичного сподівання


Математичним сподіванням, або середнім значенням, МХ випадкової величини, називається ряд (для дискретних випадкових величин) і інтеграл (для неперервних випадкових величин), якщо вони абсолютно збіжні. Математичне сподівання має такі властивості:

  1. (С — стала);

  2. ;



  3. якщо Х і Y — незалежні випадкові величини.
^

22.Дисперсія дискретної випадкової величини. Властивості дисперсії


Дисперсія (позначається через DX випадкової величини Х визначається за формулою:



Основні властивості дисперсії:





  1. якщо випадкові величини незалежні.
^

23.Середнє квадратичне відхилення. Середнє квадратичне відхилення суми взаємно незалежних випадкових величин


Середнє квадратичне відхилення (позначається літерою  є квадратним коренем із дисперсії.

Якщо від випадкової величини віднімемо її математичне сподівання, то дістанемо центровану випадкову величину, математичне сподівання якої дорівнює нулю. Ділення випадкової величини на її середнє квадратичне відхилення називається норму­ванням цієї випадкової величини.

Випадкова величина має нульове математичне сподівання й одиничну дисперсію.
^

24.Функція розподілу ймовірностей неперервної випадкової величини, її властивості та графік


Універсальним способом задання закону розподілу ймовірностей є функція розподілу Цю функцію можна тлумачити так:унаслідок експерименту випадкова величина може набути значення,меншого за х.

Якщо Х — неперервна випадкова величина, то — неперервна і диференційована; її похідна називається щільністю розподілу ймовірностей. При цьому — невід’ємна функція, для якої

Властивості:

1.0F(x)1

2.F(x) є неспадною функцією,а саме F(x2)F(x1), якщо х2х1
^

25.Щільність розподілу ймовірностей неперервної випадкової величини, її властивості та графік.


Якщо Х — неперервна випадкова величина, то — неперервна і диференційована; її похідна називається щільністю розподілу ймовірностей. При цьому — невід’ємна функція, для якої

Властивості:

1.0F(x)1

2.F(x) є не спадною функцією, а саме F(x2)F(x1), якщо х2х1

^

26.Ймовірність попадання неперервної випадкової величини в заданий інтервал

27.Знаходження функції розподілу за відомою щільність розподілу

28.Математичне сподівання і дисперсія неперервної випадкової величини

29.Нормальний розподіл, його властивості


Нормальний закон розподілу задається щільністю Параметри , які входять до виразу щільності розподілу, є відповідно математичним сподіванням та середнім квадратичним відхиленням випадкової величини. Нормальний закон розподілу широко застосовується в математичній статистиці. Для обчислення ймовірності потрапляння випадкової величини, розподіленої нормально, на проміжок використовується функція Лапласа:





Часто застосовується також формула:


^

30.Багатовимірність випадкової величини


.Сукупність випадкових величин які розглядаються спільно, називається системою випадкових величин.Для системи випадкових величин числові характеристики задаються вектором математичних сподівань і кореляційною матрицею:



Якщо елементи цієї матриці поділимо на добуток , дістанемо матрицю, складену з коефіцієнтів кореляції:



^

31.Функції від випадкових величин. Розподіл 2, Студента, Фішера


Розподіл Розглядаємо послідовність попарно незалежних випадкових величин, які розподілені нормально з нульовими математичними сподіваннями і одиничними дисперсіями.

Якщо то ця сума має розподіл з ступенями волі. Щільність розподілу Числові характеристики розподілу: До виразу щільності розподілу входить гамма-функція

Графік щільності розподілу зображено на рис. 3.3.


Для розподілу складено таблиці виду для кількості ступенів волі від 1 до 30. У таблицях для заданих значень імовірностей (здебільшого 0,9; 0,8; 0,7; 0,5; 0,3; 0,2; 0,1; 0,05; 0,02; 0,01; 0,005; 0,002; 0,001) вказано значення для відповідної кількості ступенів волі. Якщо кількість ступенів волі більша від 30, то розподіл мало відрізняється від нормального з відповідними математичним сподіванням і дисперсією.

M(X)=n. D(X)=2n.
^ Розподіл Стьюдента. Розподіл Стьюдента з n cтупенями волі має випадкова величина де Х — нормально розподілена величина з нульовим математичним сподіванням і одиничною дисперсією, а . Випадкова величина не залежить від Х і має розподіл з n ступенями волі. Щільність розподілу Графік щільності розподілу Стьюдента за зовнішнім виглядом нагадує нормальні криві. Але вони значно повільніше спадають до осі t, якщо особливо за малих значень n


Складено таблиці розподілу Стьюдента,

h

x1 x2

x2 x3

x3 x4



xk–1 xk

ni

n1

n2

n3



Nk

Wi

W1

W2

W3



Wk


здебільшого виду для кількості ступенів волі від 1 до 20. Якщо кількість ступенів волі більша, то можна застосовувати нормальний закон розподілу з нульовим математичним сподіванням і одиничною дисперсією.

M(Z)=0. .
 Розподіл Фішера. Якщо випадкові величини незалежні і мають — розподіл відповідно з ступенями волі, то випадкова величина має розподіл Фішера з ступенями волі. Щільність цього розподілу подається формулою:

Щільність розподілу Фішера має графік, зображений на



Для розподілу Фішера складено таблиці, в яких для відповідної кількості ступенів волі для ймовірностей наведено значення


^

32. Функція і щільністьрозподілудвовимірноївипадкової величини, їх властивості

33.Умовні закони розподілу і умовні математичні сподівання двовимірних в.в.

^

34.Незалежні в.в.Числові характеристики міри зв’язку в.в.:коваріація, коефіцієнт кореляції

35.Закон великих чисел. Нерівність Чебишева. Теорема Бернуллі, Чебишева, Ляпунова та їх практичне значення


^ Теорема Ляпунова. Якщо для незалежних випадкових величин, які утворюють послідовність (1), існують моменти третього порядку і виконується умова

то для виконується співвідношен-
ня (2).

Наслідком розглянутих теорем є інтегральна теорема Лапласа.

У схемі незалежних повторних випробувань



де Це випливає з того, що частоту події можна подати як суму n випадкових величин — частот настання події в окремих випробуваннях. При достатньо великих значеннях n закон розподілу цієї суми близький до нормального.

Аналогічними міркуваннями для цієї схеми легко дістати формулу:

де m — частота події А у n випробуваннях.
Нерівності Чебишова та її значення . Перша форма: якщо випадкова величина Х невід’ємна і , то

Зауваження : існує друга форм, якщо для випадкової величини існують моменти першого та другого порядку, то

Нехай задано послідовність випадкових величин:

(1)

Послідовність (1) задовольняє закон великих чисел, якщо



Окремі форми закону великих чисел різняться обмеженнями, які накладаються на випадкові величини, що входять у послідовність(1).
^ Теорема Чебишова

Нехай послідовність незалежних випадкових величин ,які задовольняють умовам:

1.M(Xі)>= aі

2.D(Xі )<= с Для всіх і=1,2,3…..n

Якщо випадкові величини у послідовності незалежні, мають скінченні математичні сподівання і рівномірно обмежені дисперсії , то до послідовності (1) можна застосувати закон великих чисел. Це означає що середне арифметичне достатньо великої кількості незалежних випадкових величин дуже мало відрізняється від середнього арифметичного їхніх математичних сподівань ,взятого за абсолютним значенням .

Ця теорема є законом великих чисел ,так само як і центральна гранична теорема
^ Теорема Бернулі

Нехай проводиться n незалежних повторних випробувань, у кожному з яких імовірність настання події А дорівнює р.Якщо ймовірність появи випадкової події А в кожному з незалежних випробувань n є величиною сталою і дорівнює P,то при необмеженому збільшенні числа експериментів n→∞

Імовірність відхилення відносної частоти появи випадкової події W(A) від імовірності p ,взятої за абсолютною величиною на ε(ε>0) прямуватиме до одиниці зі зростанням n ,що можна записати так:



де — частота події А у даних випробуваннях. Таким чином при необмеженому збільшенні числа незалежних випробувань за схемою Бернулі відносна частота дуже мало відрізняється від ймовірності .

Наведена теорема є законом великих чисел ,так само як і центральна гранична теорема
^

36.Предметі задачі мат.стата. Генеральна і вибіркова сукупність. Варіанти і варіаційний ряд вибірки


Генеральною сукупністю в математичній статистиці називається множина однотипних об’єктів, кількісна чи якісна ознака яких підлягає вивченню. Підмножина об’єктів, дібраних у відповідний спосіб із генеральної сукупності, називається вибірковою сукупністю. Вважаємо, що ознака, яка вивчається, є випадковою величиною Х із функцією розподілу Результати вибірки розглядатимемо як послідовність незалежних однаково розподілених випадкових величин Закон розподілу для всіх визначається функцією Результати вибірки — реалізації випадкових величин — позначатимемо відповідно через Розмістивши ці числа в порядку зростання і записавши частоти з якими зустрічаються ці значення, дістанемо варіаційний, або статистичний, ряд:












Частоти









На підставі такого ряду можна побудувати статистичну функцію розподілу Якщо , то статистична функція розподілу збігається д теоретичної функції розподілу.
^

37.Статистичний розподіл вибірки. Полігон частот і гістограма. Кумулята. Емпірична функція розподілу


Дискретний статистичний розподіл вибірки можна зобразити графічно у вигляді ламаної лінії, відрізки якої сполучають координати точок (xi; ni), або (xi; Wi).

У першому випадку ламану лінію називають полігоном частот, у другому — полігоном відносних частот.


^ Гістограма частот та відносних частот. Гістограма частот являє собою фігуру, яка складається з прямокутників, кожний з яких має основу h і висотy .

Гістограма відносних частот є фігурою, що складається з прямокутників, кожний з яких має основу завдовжки h і висоту, що дорівнює .



Площа гістограми частот

Площа гістограми відносних частот .
^

38. Статистичні оцінки параметрів розподілу і загальні вимоги до них.


Визначення статистичної оцінки Інформація, яку дістали на основі обробки вибірки про ознаку генеральної сукупності, завжди міститиме певні похибки, оскільки вибірка становить лише незначну частину від неї (< N), тобто обсяг вибірки значно менший від обсягу генеральної сукупності.Тому слід організувати вибірку так, щоб ця інформація була найбільш повною (вибірка має бути репрезентативною) і забезпечувала з найбільшим ступенем довіри про параметри генеральної сукупності або закон розподілу її ознаки. Параметри генеральної сукупності M(xi)=Xг, Dг, δг, Mo, rxy є величинами сталими, але їх числове значення невідоме. Ці параметри оцінюються параметрами вибірки: які дістають при обробці вибірки. Вони є величинами непередбачуваними, тобто випадковими.

Тут через θ позначено оцінювальний параметр

генеральної сукупності, а через — його статистичну оцінку, яку називають ще статистикою. При цьому θ = const, а — випадкова величина, що має певний закон розподілу ймовірностей. Зауважимо, що до реалізації вибірки кожну її варіанту розглядають як випадкову величину, що має закон розподілу ймовірностей ознаки гене­ральної сукупності з відповідними числовими характеристиками:M(xi)=Xг=M(x), D(xi)=Dг, δ(xi)=δг
^

39.Числові характеристики статистичного розподілу вибірки. Початкові та центральні вибіркові моменти


Величину, яка визначається формулою



називають вибірковою середньою величиною дискретного статистичного розподілу вибірки.

Тут xiваріанта варіаційного ряду вибірки;

niчастота цієї варіанти;

n — обсяг вибірки ().

Якщо всі варіанти з’являються у вибірці лише по одному разу, тобто ni = 1, то



2) дисперсія. Для вимірювання розсіювання варіант вибірки відносно вибирається дисперсія.

^ Дисперсія вибірки — це середнє арифметичне квадратів відхилень варіант відносно , яке обчислюється за формулою



або



3) середнє квадратичне відхилення вибірки B. При обчисленні DB відхилення підноситься до квадрата, а отже, змінюється одиниця виміру ознаки Х, тому на основі дисперсії вводиться середнє квадратичне відхилення



яке вимірює розсіювання варіант вибірки відносно , але в тих самих одиницях, в яких вимірюється ознака Х;

4) мода (Mo). Модою дискретного статистичного розподілу вибірки називають варіанту, що має найбільшу частоту появи.

Мод може бути кілька. Коли дискретний статистичний розподіл має одну моду, то він називається одномодальним, коли має дві моди — двомодальним і т. д.;

5) медіана (Me). Медіаною дискретного статистичного розподілу вибірки називають варіанту, яка поділяє варіаційний ряд на дві частини, рівні за кількістю варіант;
^

40. Умовні варіанти. Умовні емпіричні моменти. Коефіцієнт асиметрії та ексцесу


Умовним статистичним розподілом ознаки У при фіксованому значені ознаки Х=хі називають перелік варіант ознаки У та відповідних їм частот, узятих при фіксованому значенні Х. У/Х=хj



1) Коеф асиметрії As*.

Якщо варіанти розподілені симетрично, то As* =0. При As*<0 варіанти статистичного розподілу вибірки хі<x Таку симетрію := від’ємною. При As*>0 хі>x, то таку асиметрію := додатною.

2) Ексцес

Es*, як правило вик при досліджені неперервних ознак генер. сукупностей, оскільки він оцінює крутизну зміни нвв порівняно з нормальним законом. Для нормального Es*=0

^

41.Точкові статистичні оцінки параметрів розподілу генеральної сукупності


Точкова статистична оцінка називається ґрунтовною, якщо у разі необмеженого збільшення обсягу вибірки наближається до оцінювального параметра θ, а саме: Точкові статистичні оцінки є випадковими величинами, а тому наближена заміна θ на часто призводить до істотних похибок, особливо коли обсяг вибірки малий. У цьому разі застосовують інтервальні статистичні оцінки. Статистична оцінка, що визначається двома числами, кінцями інтервалів, називається інтервальною. Різниця між статистичною оцінкою та її оцінювальним параметром θ, взята за абсолютним значенням, називається точністю оцінки, а саме: (04) де δ є точністю оцінки. Оскільки є випадковою величиною, то і δ буде випадковою, тому нерівність (04) справджуватиметься з певною ймовірністю. Імовірність, з якою береться нерівність (04), тобто , (05) називають надійністю. Рівність (05) можна записати так: . Інтервал ,

що покриває оцінюваний параметр θ ге­неральної сукупності з заданою надійністю , називають довірчим.

^

42.Інтервальні оцінки параметрів розподілу. Надійна ймовірність і надійний інтеграл


Статистична оцінка яка визначається одним числом, точкою, називається точковою. Беручи до уваги, що є випадковою величиною, точкова статистична оцінка може бути зміщеною і незміщеною: коли математичне сподівання цієї оцінки точно дорівнює оцінювальному параметру θ, а саме: (1) то називається незміщеною; в противному разі, тобто коли точкова статистична оцінка називається зміщеною відносно параметра генеральної сукупності θ. Різниця (3) називається зміщенням статистичної оцінки Оцінювальний параметр може мати кілька точкових незміщених статистичних оцінок Точкова статистична оцінка називається ефективною, коли при заданому обсязі вибірки вона має мінімальну дисперсію. Отже, оцінка буде незміщеною й ефективною.
^

43.Надійний інтервал для MX і DX нормального розподілу. Визначення мінімального обсягу вибірки.


У разі коли озн. Х маж нормальний закон розподілу, для побудови довірчого інтервалу із заданою надійністю для D, σ застосовується вв
, що має розподіл х2 із К=n-1 ступенями свободи оскільки випадкові події А(х12 < x2 < x22) В(1/х12 < 1/x2 < 1/x22) є рівномірними, маємо: Р(х12 < x2 < x22) = Р(1/х12 < 1/x2 < 1/x22)

Підставимо , маємо:




Отже надійний інтервал:



Тоді для σ буде:


Значення х1, х2 з таблиць за рівностями: Р(х^2>x1^2)=1-a/2 P(x^2>x2^2)=a/2, a=1-γ


^

44.Поняття статистичної гіпотези і статистичного критерію. Помилки першого і другого роду


Нульова та альтернативна статистичні гіпотези Гіпотезу, що підлягає перевірці, називають основною. Оскільки ця гіпотеза припускає відсутність систематичних розбіжностей (нульові розбіжності) між невідомим параметром генеральної сукупності і величиною, що одержана внаслідок обробки вибірки, то її називають нульовою гіпотезою і позначають Н0. Зміст нульової гіпотези записується так:;;. Кожній нульовій гіпотезі можна протиставити кілька альтернативних (конкуруючих) гіпотез, які позначають символом Н, що заперечують твердження нульової. Так, наприклад, нульова гіпотеза стверджує: , а альтернативна гіпотеза — , тобто заперечує твердження нульової.

^ 53) Статистичний критерій Для перевірки правильності висунутої статистичної гіпотези вибирають так званий статистичний критерій, керуючись яким відхиляють або не відхиляють нульову гіпотезу. Статистичний критерій, котрий умовно позначають через K, є випадковою величиною, закон розподілу ймовірностей якої нам заздалегідь відомий. Так, наприклад, для перевірки правильності як статистичний критерій ^ K можна взяти випадкову величину, яку позначають через K = Z, що дорівнює і яка має нормований нормальний закон розподілу ймовірностей. При великих обсягах вибірки (n > 30) закони розподілу статистич­них критеріїв наближатимуться до нормального. Спостережуване значення критерію, який позначають через K, обчислюють за результатом вибірки.

45.Загальна схема перевірки статистичних гіпотез. Перевірка достовірності гіпотез про частку ознаки генеральної сукупності, про рівність частот ознаки двох вибірок, про значення генеральної середньої, про рівність двох генеральних середніх і дисперсій


^ Перевірка правельності нульової гіпотези про нормальний закон розподілу ознаки генеральної сукупності Для перевірки правильності Н0 задається так званий рівень значущості .

 — це мала ймовірність, якою наперед задаються. Вона може набувати значення = 0,005; 0,01; 0,001. В основу перевірки Н0 покладено принцип , тобто ймовірність того, що статистичний критерій потрапляє в критичну область , дорівнює малій імовірності . Якщо ж виявиться, що а ця подія малоймовірна і все ж відбулася, то немає підстав приймати нульову гіпотезу. Пропонується такий алгоритм перевірки правильності Н0:

1. Сформулювати Н0 й одночасно альтернативну гіпотезу Н.

2. Вибрати статистичний критерій, який відповідав би сформульованій нульовій гіпотезі.

3. Залежно від змісту нульової та альтернативної гіпотез будується правобічна, лівобічна або двобічна критична область, а саме: нехай , тоді, якщо

, то вибирається правобічна критична область, якщо

, то вибирається лівобічна критична область і коли

, то вибирається двобічна критична область.

4. Для побудови критичної області (лівобічної, правобічної чи двобічної) необхідно знайти критичні точки. За вибраним статистичним критерієм та рівнем значущості знаходяться критичні точки.

5. За результатами вибірки обчислюється спостережуване значення критерію .

6. Відхиляють чи приймають нульову гіпотезу на підставі таких міркувань: у разі, коли , а це є малоймовірною випадковою подією, і, незважаючи на це, вона відбулася, то в цьому разі Н0 відхиляється: для лівобічної критичної області ; для правобічної критичної області

для двобічної критичної області

або , ураховуючи ту обставину, що критичні точки і симетрич­но розташовані відносно нуля.
^

46.Непараметричні статистичні гіпотези. Критерії згоди.Перевірка гіпотез про нормальнийірівномірнийрозподіли


Перевірка правельності нульової гіпотези про нормальний закон розподілу ознаки генеральної сукупності Для перевірки правильності Н0 задається так званий рівень значущості .

 — це мала ймовірність, якою наперед задаються. Вона може набувати значення = 0,005; 0,01; 0,001. В основу перевірки Н0 покладено принцип , тобто ймовірність того, що статистичний критерій потрапляє в критичну область , дорівнює малій імовірності . Якщо ж виявиться, що а ця подія малоймовірна і все ж відбулася, то немає підстав приймати нульову гіпотезу. Пропонується такий алгоритм перевірки правильності Н0:

1. Сформулювати Н0 й одночасно альтернативну гіпотезу Н.

2. Вибрати статистичний критерій, який відповідав би сформульованій нульовій гіпотезі.

3. Залежно від змісту нульової та альтернативної гіпотез будується правобічна, лівобічна або двобічна критична область, а саме: нехай , тоді, якщо

, то вибирається правобічна критична область, якщо

, то вибирається лівобічна критична область і коли

, то вибирається двобічна критична область.

4. Для побудови критичної області (лівобічної, правобічної чи двобічної) необхідно знайти критичні точки. За вибраним статистичним критерієм та рівнем значущості знаходяться критичні точки.

5. За результатами вибірки обчислюється спостережуване значення критерію .

6. Відхиляють чи приймають нульову гіпотезу на підставі таких міркувань: у разі, коли , а це є малоймовірною випадковою подією, і, незважаючи на це, вона відбулася, то в цьому разі Н0 відхиляється: для лівобічної критичної області ; для правобічної критичної області

для двобічної критичної області

або , ураховуючи ту обставину, що критичні точки і симетрич­но розташовані відносно нуля. Критерій узгодженості Пірсона. Критерій узгодженості Пірсона є випадковою величиною, що має розподіл , який визначається за формулою і має k = q – m – 1 ступенів свободи, де q — число часткових інтервалів інтервального статистичного розподілу вибірки; m — число параметрів, якими визначається закон розподілу ймовірностей генеральної сукупності згідно з нульовою гіпотезою. Так, наприклад, для закону Пуассона, який характеризується одним параметром , m = 1, для нормального закону m = 2, оскільки цей закон визначається двома параметрами i . Якщо (усі емпіричні частоти збігаються з теоретичними), то , у противному разі . Визначивши при заданому рівні значущості  і числу ступенів свободи критичну точку , за таблицею (додаток 8) будується правобічна критична область. Якщо виявиться, що спостережуване значення критерію , то Н0 про закон розподілу ознаки генеральної сукупності відхиляється. У противному разі Н0 приймається.
^

47.Двовимірний статистичний розподіл вибірки і його числові характеристики. Кореляційна таблиця.


Перелік варіант У=уі, Х=хі та відповідних їм частотам утворюють двовимірний статистичний розподіл вибірки, що реалізована з ген. сукупності, ел. цієї вибірки притаманні кількісні ознаки Х і У. У табл. Ф-мі має вигляд:




X=xj

У=уi

x1



xm

nyi

y1

n11



n1m

ny1











yk

nk1



nkm

nyk

nxj

nx1



nx3




Загальні числові характеристики ознаки Х:





σ=√D

Для величини У відповідно.

Кореляційний момент, вибірковий коефіцієнт кореляції‌



Якщо К = 0, то кореляційного зв’язку немає, якщо К≠0, то цей зв'язок існує.



|rB|≤1, -1≤rB ≤1
^

48.Умовні статистичні розподіли вибірки,їх числові характеристики.


Умовним статистичним розподілом ознаки У при фіксованому значені ознаки Х=хі називають перелік варіант ознаки У та відповідних їм частот, узятих при фіксованому значенні Х. У/Х=хj

Y=yj

y1

yk

nij

n1j

nkj

Тут

Умовні емпіричні моменти:





^

49.Статистична і кореляційна залежність. Функції та лінії регресії


Показником, що вимірює стохастичний зв’язок між змінними, є коефіцієнт кореляції, який свідчить з певною мірою ймовірності, наскільки зв’язок між змінними близький до строгої лінійної залежності.

За наявності кореляційного зв’язку між змінними необхідно виявити його форму функціональної залежності (лінійна чи нелінійна), а саме:;

;



Наведені можливі залежності між змінними X і Y називають функціями регресії. Форму зв’язку між змінними X і Y можна встановити, застосовуючи кореляційні поля, які зображені на рисунках

Для двовимірного статистичного розподілу вибірки ознак (Х, Y) поняття статистичної залежності між ознаками Х та Y має таке визначення:

статистичною залежністю Х від Y називають таку, за якої при зміні значень ознаки Y = yi змінюється умовний статистичний розподіл ознаки Х, статистичною залежністю ознаки Y від Х називають таку, за якої зі зміною значень ознаки X = xi змінюється умовний статистичний розподіл ознаки Y.

Між ознаками Х та Y може існувати статистична залежність і за відсутності кореляційної. Але коли існує кореляційна залежність між ознаками Х та Y, то обов’язково між ними існуватиме і статистична залежність
^

50.Парна лінійна регресія. Вибірковий коефіцієнт кореляції та його властивості


Ураховуючи вплив на значення Y збурювальних випадкових факторів, лінійне рівняння зв’язку X і Y можна подати в такому вигляді:

,

де , є невідомі параметри регресії, є випадковою змінною, що характеризує відхилення y від гіпотетичної теоретичної регресії.

Отже, в рівнянні (485) значення «y» подається у вигляді суми двох частин: систематичної і випадкової . Параметри , є невідомими величинами, а є випадковою величиною, що має нормальний закон розподілу з числовими характеристиками: , . При цьому елементи послідовності є некорельованими

У результаті статистичних спостережень дослідник дістає характеристики для незалежної змінної х і відповідні значення залежної змінної у.

Вибірковий коефіцієнт кореляції

Рівняння лінійної парної регресії:

або

,

де і називають коефіцієнтом регресії.Для обчислення необхідно знайти



;

;



Як бачимо, коефіцієнт кореляції близький за своїм значенням до одиниці, що свідчить про те, що залежність між Х та Y є практично лінійною


^

51.Надійний інтервал для лінійної регресії


Ураховуючи те, що і є випадковими величинами, то і лінійна функція регресії буде випадковою. Позначимо через значення ознаки Y, обчислимо за формулою

.

Тоді





.

Звідси дістали:

або

.Випадкова величина



має t-розподіл із ступенями свободи. Ураховуючи можна побудувати довірчий інтервал для лінійної парної функції регресії із заданою надійністю γ, а саме:

.

випливає


^

52.Лінійна регресія для двовимірного статистичного розподілу


Ураховуючи вплив на значення Y збурювальних випадкових факторів, лінійне рівняння зв’язку X і Y можна подати в такому вигляді:

,

де , є невідомі параметри регресії, є випадковою змінною, що характеризує відхилення y від гіпотетичної теоретичної регресії.

Отже, в рівнянні (485) значення «y» подається у вигляді суми двох частин: систематичної і випадкової . Параметри , є невідомими величинами, а є випадковою величиною, що має нормальний закон розподілу з числовими характеристиками: , . При цьому елементи послідовності є некорельованими

У результаті статистичних спостережень дослідник дістає характеристики для незалежної змінної х і відповідні значення залежної змінної
^

53.Множинна лінійна регресія


На практиці здебільшого залежна змінна пов’язана з впливом не одного, а кількох аргументів.
У цьому разі регресію називають множинною. При цьому якщо аргументи в функції регресії в першій степені, то множинна регресія називається лінійною, у противному разі — множинною нелінійною регресією.

^ Довірчий інтервал для множинної лінійної регресії

Матриця Х містить m лінійно незалежних векторів-стовпців, а це означає, що ранг її дорівнюватиме m і визначник Отже, матриця має обернену.

Дисперсії статистичних оцінок визначають з допомогою кореляційної матриці для вектора

^ Коефіцієнт множинної регресіїТісноту між ознаками Y та X, де , вимірюють з допомогою коефіцієнта множинної кореляції ^ R, що є узагальненням парного коефіцієнта кореляції rij і обчислюється за формулою

.

Чим ближче значення ^ R до ±1, тим краще вибрано функцію регресії

Нормування коефіцієнтів регресії

Множинна лінійна регресія дає змогу порівняти вплив на досліджуваний процес різних чинників. У загальному випадку змінні репрезентують чинники, що мають різні одиниці виміру (кілограми, гривні, метри тощо). Отже, для того щоб порівняти і з’ясувати відносну вагомість кожного з чинників, використовують так звані нормовані коефіцієнти регресії, які визначають за формулою



де — коефіцієнт регресії після нормування; — виправлене середнє квадратичне відхилення змінної — виправлене середнє квадратичне відхилення ознаки Y.
^

54.Поняття про нелінійну регресію. Кореляційні відношення та їх властивості.


Якщо в рівняння множинної регресії змінні входять як , то регресія називається нелінійною.

У загальному випадку нелінійна регресія записується в такому вигляді:



де параметри є сталими невідомими величинами, які підлягають статистичним оцінкам, а — випадкова величина, яка має нормальний закон розподілу з числовими характеристиками і при цьому випадкові величини між собою не корельовані. Реалізуючи вибірку обсягом n, згідно з (563), дістанемо систему нелінійних рівнянь виду:











Скачать файл (1138 kb.)

Поиск по сайту:  

© gendocs.ru
При копировании укажите ссылку.
обратиться к администрации