Портал освітньо-інформаційних послуг «Студентська консультація»

  
Телефон +3 8(066) 185-39-18
Телефон +3 8(093) 202-63-01
 (066) 185-39-18
Вконтакте Студентська консультація
 studscon@gmail.com
 facebook.com/studcons

<script>

  (function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){

  (i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o),

  m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m)

  })(window,document,'script','//www.google-analytics.com/analytics.js','ga');

 

  ga('create', 'UA-53007750-1', 'auto');

  ga('send', 'pageview');

 

</script>

Приклади розподілу неперервної випадкової величини

Предмет: 
Тип роботи: 
Контрольна робота
К-сть сторінок: 
15
Мова: 
Українська
Оцінка: 
Приклади розподілу неперервної випадкової величини
 
1) Приклад. Нормальний розподіл 
а) стандартний розподіл N (0;1)
Випадкова величина має стандартною, нормальний розподіл N (0;1).
Випадкова величина має бути стандартною, нормальний розподіл якщо її щільність  
 
Відомо, що  
Відома таблична функція Лапласа  .
Зараз побачимо як пов’язана функція розподілу N (0;1) і таблична функція Лапласа  , при х<0, треба пам’ятати Ф(-х)=-Ф(х) функція непарна.
 
  (метод інтегрування частинами).
 
                    = 1
  
N (0;1) – дисперсія (Дх).
0 – середнє значення.
МоХ = 0 
МЕХ = 0 
 
Асиметрія  
       
        , то МХ=0, то  
                  
б) Нормальний розподіл загальний  
Випадкова величина У називається нормальною розподіленою з параметрами   і  , якщо  , де х має стандартний нормативний розподіл N (0;1).
a є R,   
 
  - математичне сподівання;
МХ ДХ – дисперсія.
 
Знаходимо щільність нормального розподілу
 
Нормальний розподіл асиметрії = 0.
 
Таким чином As I Fs нормального розподілу = 0.
 
Властивості нормальних розподілів
1) Клас нормальних розподілів інваріантний відносно лінійних замін випадкової величини.
Тобто Х – нормальна, то СХ+d – також нормальна, якщо  .
2) Якщо Х1, Х2... Хn – нормальні випадкові величини, то їхня сума Х1+Х2+...+ Хn  також нормальна.
3) Теорема (центральна гранична теорема Ляпунова)
Нехай Х1, Х2... Хn незалежні випадкові величини
 
 
 , то границя
 ,              (1)
при умові, що     якщо  , із теореми Ляпунова випливає поширеність нормального розподілу у природі.
На випадкові величини, що зустрічаються на практиці іноді випливає велика кількість мало залежних причин, тоді за теоремою Ляпунова їхній розподіл має бути х до норм.
 
Приклади нормал. вип. величин
1. Похибки експерименту.
2. Відхилення знаряда від точки приміщення.
Для математичної статистики є важлива теорема (ЦГТ для незалежних однаково розподілених величин, якщо випадкові величини Х1, Х2... Хn...) незалежні та однаково розподілені, мають нескінченне математичне сподівання та дисперсію, то виконується формула один. 
Задача: середня маса у ящику 25 кг, а середнє квадратичне відхилення 2 кг. 
1. Яка ймовірність того, що маса яблук у 100 ящику буде менша 24,5 кг?
2. Яка ймовірність того, що маса яблук у 100 ящику відхилиться від середнього не більше, ніж на 2.
Розв’язок
х1 – маса першого ящика;
х100 – маса сотого ящика.
Мхі = 25 кг
 
S – маса 100 ящика.
S = Х1 + Х2 + … + Х100
 
ДS (не залеж.) =  
 
Тоді за у ГТ поділ S має бути близький до нормального S-N (2500;202).
1)  
2)  .
Ф(5)=0,4999997.
В статистиці зустрічаються інші розподіли, які будуються з допомогою нормального.
  (Хельметра-Гірона)
Х1, Х2... Хn – незалежні і мають стандартні по рисам розподіли.
f = Х1+Х2+...+...Хn
f має f2 розподілу із n ступеня розподілу.
Для цього розподілу складаємо таблицю, очевидно, що якщо вона У та Z незалежні і f2 розподілу У+Z також має f2 і n+m степенями вільності.
В методі розбираються розподіли.
t – розподіл Студента.
f – розподіл Крешера, Снєдкова.
 
2. Показниковий розподіл.
Випадкова величина називається показниковою розподільчою з параметром  , якщо її функція розподілу має вигляд 
                   0, t<0
F (t) = 
 
Знайти щільність 
 
Теорема: показниковий розподіл описує тривалість існування не старіючих елементів, тобто якщо елемент проіснував час t, тоді ймовірність того, що він проіснує ще час   також як   і для повного елемента.
Неспарені є радіоактивні елементи, тривалість телефонної розмови, якщо потік найпростіший, то інтер. часу між послідовними подіями однаковий і показниковий розподіл.
Математичне сподівання
 
М0Х = 0 – показниковий розподіл має правосторонньо асиметрію.
 
Нерівність Чебешева і значення великих чисел
1) Нерівність Чебешева:
т. для довільного   і   викон.
 
На практиці часто замість   розглядається абсолютне відхилення абсолютної величини, тобто   візьмемо К=2, для дов. К>0.
 ,
Наслідок   - для протилежної події.
З наслідку вимливає ймовірний зміст дисперсії, чим менша дисперсія тим менша ймовірність, що випадкова величина відхилиться від свого значення.
Приклад: для особи, що досягла 20р. ймовірність трагічного випадку 0,005 застрахована група з 8 тис. людей такого віку на суму по 200 грн., страховий внесок.
А – до кінця року страхова компанія отримує збитки;
В – прибуток перевищить 8 тис. грн.;
С – прибуток перевищить 10 тис. грн.
Розв’язок:
х – кількість застрахованих для яких потрібно виплатити страхову суму. Ця випадкова величина має закон Бернуллі.
 ,  
n = 8000p = 0,005
q = 0,995
 
 - ніякої інформації.
 
Оцінимо за ІІ-гою нерівністю використаємо  .
 
Ці самі нерівності можна рахувати за формулами Мавра-Лапласа
 
У даному випадку   не дуже велика, тому результати обчислення мають досить велику похибку.
 
Обчислення за керівництва Чебешева дають подвійну оцінку ймовірності, але часом дуже грубо, якщо у нерівності К брати більше 3;4, то оцінки будуть точніше.
 
Закон великих чисел
1) т. Бернулі
Нехай   - частота події А у n незалежних випробуваннях.
 
Тоді для  ,  
Mn = має розподіл Бернуллі
 
Отже, при великій кількості випробувань відносна частота події близька до ймовірності цієї події – це статистичний зміст ймовірності.
2) Про середні значення Х 
Якщо Х1, Х2... Хn – незалежні однаково розподілені величини із скінченим математичним сподіванням а, то для  .
 
Доведення
 
Аналогічно доводиться наступне більш загальне твердження:
- т. Чебешива
Якщо Х1, Х2... Хn  - не корельовано (незалежні) випадкові величини, ісп. К>0, таке що  , то для довільного  .
 
Двовимірні випадкові величини
Двовимірні випадкові величини - це вектор з 2-вох координат (Х, У), корд. є випадкові.
 
Якщо випадкові величини Х і У дискретні, то цей розподіл найкраще задавати в таблиці.
 
x/y y1 y2 … yn
x1 P11 P12
x2 P21 P22
xn Pnm
 
Додавши ймовірність у кожному рядку табл. дістанемо закон розподілу випадкової величини х, а додавши елементи отримаємо розподіл у. Але в цій таблиці більше інформації, ніж у значеннях розподілу для х і у окремо, але якщо х і у незалежні, то можна знайти
 
Двовимірна випадкова величина (х, у) називається абсолютно неперервною, якщо інша функція неперервних-змінних, що функція розподілу обчислюється за формулою f (x,y).
 
Ця функція f (x,y) називається двовимірною щільністю розподілу і для неї виконується формула:
 
Якщо випадкова величина х, у незалежні, то f (x,y) =  , де g, h – щільності випадкових величин.
 
Числові характеристики двовимірних випадкових величин
 
Відхилення двовимірних випадкових величин називається випадкова величина.
 
Кореляційною матрицею двовимірної випадкової величини називається числові матриці.
 
  = де  
Т – транспортована матриця.
Якщо випадкові величини Х та У незалежні, то кореляція ху до р. о і кореляційна матриця називається діагональною.
Множина випадкових величин з 0 математичним сподіванням утворює лінійний простір, тобто при їх додаванні чи множенні на число ми не виходимо з цього простору, аналог довжини вектора – це корінь з дисперсії або   скалярний добуток – це cos – кута між векторами.
 
  - коефіцієнт кореляції і позначається   х, у.
 
Якщо випадкові величини х, у  незалежні, то  , але якщо  , то це не означає, що х та у незалежно такі випадкові величини називається некорольованими і позначається  .
 
Властивості коефіцієнта кореляції:
1)  ;
2) х, у – некор., то  ;
3) х, у – незал.,    ;
4)   - тоді коли у є лінійною функцією х.
 
Отже, коефіцієнт кореляції х ступінь лінійної залежності, ніж х, у, якщо  , то залежності пряма  , то залежність непряма.
(х, у)
 
Регресія У та Х 
 
Лінійна регресія – функція   називається найкращим наближенням х від у, якщо вона мінімізує відстань  , тоді найкраще наближення називається регресією х та у.
 ;    а, b – числа – це найкраща лінійна функція, що наближає у через х найкраще лінійне наближення – це лінійна регресія.
 
Парабола мінімум у вершині.
 
Найкраще лінійне наближення задається формулою 
  - найкраща лінійна регресія.
Знайдемо похибку найкращого лінійного наближення у через х.
  - звідси випливає властивість кореляції, що якщо  , тоді коли у є лінійною функцією від х.
Із рівняння регресії видно, що якщо  , то при зростанні х зростає b середнє і у, якщо  , то  : при зростанні х середнє значення у спадає   характеризує ступінь лінійної залежності.
 
Приклад: Задано значення розподілу двохвимірної величини х і у:
x/y 1 2 3  
 
0 0.2 0.1 0 0.3
1 0.1 0.2 0.1 0.4
2 0 0.1 0.2 0.3
 
0.3 0.4 0.3
Значення: МХ, МУ,  , рівняння лінійної регресії у та х.
Х 0 1 2
P 0.3 0.4 0.3
Y 1 1 2
P 0.3 0.4 0.3
 
 
Оскільки   не дуже близький до 1, то лінійний зв’язок середньої частоти, то зв’язок у та х – прямий.
  - рівняння лінійної регресії, cos = 0,4.
Фото Капча