Предмет:
Тип роботи:
Контрольна робота
К-сть сторінок:
15
Мова:
Українська
Приклади розподілу неперервної випадкової величини
1) Приклад. Нормальний розподіл
а) стандартний розподіл N (0;1)
Випадкова величина має стандартною, нормальний розподіл N (0;1).
Випадкова величина має бути стандартною, нормальний розподіл якщо її щільність
Відомо, що
Відома таблична функція Лапласа .
Зараз побачимо як пов’язана функція розподілу N (0;1) і таблична функція Лапласа , при х<0, треба пам’ятати Ф(-х)=-Ф(х) функція непарна.
(метод інтегрування частинами).
= 1
N (0;1) – дисперсія (Дх).
0 – середнє значення.
МоХ = 0
МЕХ = 0
Асиметрія
, то МХ=0, то
б) Нормальний розподіл загальний
Випадкова величина У називається нормальною розподіленою з параметрами і , якщо , де х має стандартний нормативний розподіл N (0;1).
a є R,
- математичне сподівання;
МХ ДХ – дисперсія.
Знаходимо щільність нормального розподілу
Нормальний розподіл асиметрії = 0.
Таким чином As I Fs нормального розподілу = 0.
Властивості нормальних розподілів
1) Клас нормальних розподілів інваріантний відносно лінійних замін випадкової величини.
Тобто Х – нормальна, то СХ+d – також нормальна, якщо .
2) Якщо Х1, Х2... Хn – нормальні випадкові величини, то їхня сума Х1+Х2+...+ Хn також нормальна.
3) Теорема (центральна гранична теорема Ляпунова)
Нехай Х1, Х2... Хn незалежні випадкові величини
, то границя
, (1)
при умові, що якщо , із теореми Ляпунова випливає поширеність нормального розподілу у природі.
На випадкові величини, що зустрічаються на практиці іноді випливає велика кількість мало залежних причин, тоді за теоремою Ляпунова їхній розподіл має бути х до норм.
Приклади нормал. вип. величин
1. Похибки експерименту.
2. Відхилення знаряда від точки приміщення.
Для математичної статистики є важлива теорема (ЦГТ для незалежних однаково розподілених величин, якщо випадкові величини Х1, Х2... Хn...) незалежні та однаково розподілені, мають нескінченне математичне сподівання та дисперсію, то виконується формула один.
Задача: середня маса у ящику 25 кг, а середнє квадратичне відхилення 2 кг.
1. Яка ймовірність того, що маса яблук у 100 ящику буде менша 24,5 кг?
2. Яка ймовірність того, що маса яблук у 100 ящику відхилиться від середнього не більше, ніж на 2.
Розв’язок
х1 – маса першого ящика;
х100 – маса сотого ящика.
Мхі = 25 кг
S – маса 100 ящика.
S = Х1 + Х2 + … + Х100
ДS (не залеж.) =
Тоді за у ГТ поділ S має бути близький до нормального S-N (2500;202).
1)
2) .
Ф(5)=0,4999997.
В статистиці зустрічаються інші розподіли, які будуються з допомогою нормального.
(Хельметра-Гірона)
Х1, Х2... Хn – незалежні і мають стандартні по рисам розподіли.
f = Х1+Х2+...+...Хn
f має f2 розподілу із n ступеня розподілу.
Для цього розподілу складаємо таблицю, очевидно, що якщо вона У та Z незалежні і f2 розподілу У+Z також має f2 і n+m степенями вільності.
В методі розбираються розподіли.
t – розподіл Студента.
f – розподіл Крешера, Снєдкова.
2. Показниковий розподіл.
Випадкова величина називається показниковою розподільчою з параметром , якщо її функція розподілу має вигляд
0, t<0
F (t) =
Знайти щільність
Теорема: показниковий розподіл описує тривалість існування не старіючих елементів, тобто якщо елемент проіснував час t, тоді ймовірність того, що він проіснує ще час також як і для повного елемента.
Неспарені є радіоактивні елементи, тривалість телефонної розмови, якщо потік найпростіший, то інтер. часу між послідовними подіями однаковий і показниковий розподіл.
Математичне сподівання
М0Х = 0 – показниковий розподіл має правосторонньо асиметрію.
Нерівність Чебешева і значення великих чисел
1) Нерівність Чебешева:
т. для довільного і викон.
На практиці часто замість розглядається абсолютне відхилення абсолютної величини, тобто візьмемо К=2, для дов. К>0.
,
Наслідок - для протилежної події.
З наслідку вимливає ймовірний зміст дисперсії, чим менша дисперсія тим менша ймовірність, що випадкова величина відхилиться від свого значення.
Приклад: для особи, що досягла 20р. ймовірність трагічного випадку 0,005 застрахована група з 8 тис. людей такого віку на суму по 200 грн., страховий внесок.
А – до кінця року страхова компанія отримує збитки;
В – прибуток перевищить 8 тис. грн.;
С – прибуток перевищить 10 тис. грн.
Розв’язок:
х – кількість застрахованих для яких потрібно виплатити страхову суму. Ця випадкова величина має закон Бернуллі.
,
n = 8000p = 0,005
q = 0,995
- ніякої інформації.
Оцінимо за ІІ-гою нерівністю використаємо .
Ці самі нерівності можна рахувати за формулами Мавра-Лапласа
У даному випадку не дуже велика, тому результати обчислення мають досить велику похибку.
Обчислення за керівництва Чебешева дають подвійну оцінку ймовірності, але часом дуже грубо, якщо у нерівності К брати більше 3;4, то оцінки будуть точніше.
Закон великих чисел
1) т. Бернулі
Нехай - частота події А у n незалежних випробуваннях.
Тоді для ,
Mn = має розподіл Бернуллі
Отже, при великій кількості випробувань відносна частота події близька до ймовірності цієї події – це статистичний зміст ймовірності.
2) Про середні значення Х
Якщо Х1, Х2... Хn – незалежні однаково розподілені величини із скінченим математичним сподіванням а, то для .
Доведення
Аналогічно доводиться наступне більш загальне твердження:
- т. Чебешива
Якщо Х1, Х2... Хn - не корельовано (незалежні) випадкові величини, ісп. К>0, таке що , то для довільного .
Двовимірні випадкові величини
Двовимірні випадкові величини - це вектор з 2-вох координат (Х, У), корд. є випадкові.
Якщо випадкові величини Х і У дискретні, то цей розподіл найкраще задавати в таблиці.
x/y y1 y2 … yn
x1 P11 P12
x2 P21 P22
…
xn Pnm
Додавши ймовірність у кожному рядку табл. дістанемо закон розподілу випадкової величини х, а додавши елементи отримаємо розподіл у. Але в цій таблиці більше інформації, ніж у значеннях розподілу для х і у окремо, але якщо х і у незалежні, то можна знайти
Двовимірна випадкова величина (х, у) називається абсолютно неперервною, якщо інша функція неперервних-змінних, що функція розподілу обчислюється за формулою f (x,y).
Ця функція f (x,y) називається двовимірною щільністю розподілу і для неї виконується формула:
Якщо випадкова величина х, у незалежні, то f (x,y) = , де g, h – щільності випадкових величин.
Числові характеристики двовимірних випадкових величин
Відхилення двовимірних випадкових величин називається випадкова величина.
Кореляційною матрицею двовимірної випадкової величини називається числові матриці.
= де
Т – транспортована матриця.
Якщо випадкові величини Х та У незалежні, то кореляція ху до р. о і кореляційна матриця називається діагональною.
Множина випадкових величин з 0 математичним сподіванням утворює лінійний простір, тобто при їх додаванні чи множенні на число ми не виходимо з цього простору, аналог довжини вектора – це корінь з дисперсії або скалярний добуток – це cos – кута між векторами.
- коефіцієнт кореляції і позначається х, у.
Якщо випадкові величини х, у незалежні, то , але якщо , то це не означає, що х та у незалежно такі випадкові величини називається некорольованими і позначається .
Властивості коефіцієнта кореляції:
1) ;
2) х, у – некор., то ;
3) х, у – незал., ;
4) - тоді коли у є лінійною функцією х.
Отже, коефіцієнт кореляції х ступінь лінійної залежності, ніж х, у, якщо , то залежності пряма , то залежність непряма.
(х, у)
Регресія У та Х
Лінійна регресія – функція називається найкращим наближенням х від у, якщо вона мінімізує відстань , тоді найкраще наближення називається регресією х та у.
; а, b – числа – це найкраща лінійна функція, що наближає у через х найкраще лінійне наближення – це лінійна регресія.
Парабола мінімум у вершині.
Найкраще лінійне наближення задається формулою
- найкраща лінійна регресія.
Знайдемо похибку найкращого лінійного наближення у через х.
- звідси випливає властивість кореляції, що якщо , тоді коли у є лінійною функцією від х.
Із рівняння регресії видно, що якщо , то при зростанні х зростає b середнє і у, якщо , то : при зростанні х середнє значення у спадає характеризує ступінь лінійної залежності.
Приклад: Задано значення розподілу двохвимірної величини х і у:
x/y 1 2 3
0 0.2 0.1 0 0.3
1 0.1 0.2 0.1 0.4
2 0 0.1 0.2 0.3
0.3 0.4 0.3
Значення: МХ, МУ, , рівняння лінійної регресії у та х.
Х 0 1 2
P 0.3 0.4 0.3
Y 1 1 2
P 0.3 0.4 0.3
Оскільки не дуже близький до 1, то лінійний зв’язок середньої частоти, то зв’язок у та х – прямий.
- рівняння лінійної регресії, cos = 0,4.