Предмет:
Тип роботи:
Курс лекцій
К-сть сторінок:
56
Мова:
Українська
х.
Досить часто можно виявити проблему гетероскедастичності. В таких умовах можна здійснити відповідні дії по виключенню цього ефекту на етапі спеціфікації моделі регресії, і це дозволить зменшити або, можливо, усунути необхідність формальної перевірки. На нинішньому етапі запропоновано значне число тестів (і, відповідно, критеріїв для них). Найбільш поширеними тестами є: тест рангової кореляції Спірмена, тест Голфреда-Квандта і тест Глейзера.
При виконання теста рангової кореляції Спірмена припускається, що дисперсія випадкового члена буде або збільшуватися, або зменшуватися відповідно до збільшення змінної х, і тому в регресії абсолютні значення залишків і значення х будуть корельовані. Дані по х і залишки упорядковуються, і коефіцієнт рангової кореляції визначається як:
rx,e = 1 – (6ΣD2i/n(n2 - 1)), (6.7)
деDi – різниця між рангом х і рангом помилки е;
е – залишки.
Якщо припускати, що відповідний коефіцієнт кореляції для генеральної сукупності дорівнює нулю, то коефіцієнт рангової кореляції має нормальний розподіл з математичним очікуванням 0 і дисперсією 1/(n - 1) в більших вибірках. Таким чином, відповідна тестова статистика дорівнює rx,e √n-1, і при використанні двобокового критерію нульова гіпотеза про відсутність гетероскедастичності буде відхилена при рівні значущості в 5%, якщо вона перевищує 1,96, і при рівні значущості в 1%, якщо вона перевищує 2,58. Якщо в моделі регресії знаходиться більше однієї пояснювальної змінної, то перевірка гіпотези може здійснюватися з використанням іншої з них.
Ймовірно, що найбільше відомим є формальний критерій, запропонований С. Голдфелдом і Р. Квандтом. При проведенні перевірки з цього критерію слід припускати, що стандартне відхилення (σі) розподілу ймовірностей Uі пропорційне значенню х в цьому спостереженні. Запропоновано також, що випадковий член розподілений нормально і не піддається автокореляції.
Всі n спостережень у виборці упорядковуються за значенням х, після чого оцінюються окремі регресії для перших n’ і для останніх n’ спостережень; середні (n - 2n’) спостережень відхиляються. Якщо припущення відносно природи гетероскедастичності доцільне, то дисперсія U і в останніх n’ спостереженнях буде більшою, ніж в перших n’, і це буде відображено в сумі квадратів залишків в двох вказаних “часткових” регресіях. Визначаємо суми квадратів залишків в регресіях для перших n’ і останніх n’ спостережень відповідно через RSS1 i RSS2. Розраховуємо відношення RSS2/RSS1, яке має F-розподіл з (n’ – к - 1) і (n’ – к - 1) ступенями свободи, де к – число пояснювальних змінних в регресійному рівнянні. Потужність критерію залежить від вибору n’ по відношенню до n. Грунтуючись на результатах деяких проведених експериментів, С. Голдфелд і Р. Квандт стверджують, що n’ повинно складати порядок 11, коли n = 30, і порядка 22, коли n = 60. Якщо в моделі знаходиться більше однієї пояснювальної змінної, то спостереження повинні упорядковуватися за тією з них, яка, як запропоновано, пов’язана з σі і n’ повинна бути більшою, ніж к + 1 (де к – число пояснювальних змінних).
Метод Голдфелда-Квандта може бути також використаний для перевірки на гетероскедастичність при припущенні, що σі обернено пропорційний хі. При цьому використовується подібна процедура, що і розглянута вище, проте тестова статистика зараз є показником RSS1/RSS2, який знову має F-розподіл з (n’ – к - 1) і (n’ – к - 1) ступенями свободи.
Тест Глейзера дозволяє більш ретельно розглянути характер гетероскедастичності. Він грунтується на тому, що знімається припущення, що σі пропорційна хі, а перевіряється лише більш подібна функціональна форма.
Для того, щоб використовувати цей метод, необхідно оцінити регресійну залежність у від х за допомогою методу найменших квадратів, а потім розрахувати абсолютні значення залишків е, оцінивши їх регресію. У кожному випадку нульова гипотеза про відсутність гетероскедастичності буде відхилена, якщо оцінка регресії відрізняється від нуля. Якщо при оцінюванні більше однієї функції, то орієнтиром при визначенні характеру гетероскедастичності може служити найкраща з них.
Мультиколінеарність – це поняття, яке використовується для опису проблеми, коли нестрога лінійна залежність між пояснювальними змінними призводить до отримання ненадійних оцінок регресії. Проте, така залежність, зовсім необов’язково дає незадовільні оцінки. Якщо всі інші умови задовільні, тобто якщо кількість спостережень і вибіркові дисперсії пояснювальних змінних великі, а дисперсія випадкового члена – мала, то в результаті можна отримати досить позитивні оцінки. Більш детально проблему мільтиколінеарності було розглянуто в темі 3.
Лекція 6
Тема 7. Побудова економетричної моделі з автокорельованими залишками
7.1. Визначення автокореляції залишків, її природа, причини виникнення і наслідки
Одним з основних припущень класичного лінійного регресійного аналізу є припущення щодо відсутності взаємозв’язку між значеннями стохастичної складової моделі ε в різних спостереженнях, тобто припущення
Якщо це припущення порушується - виникає явище, яке носить назву автокореляції залишків.
Автокореляція залишків – це залежність між послідовними значеннями стохастичної складової моделі.
У випадку автокореляції залишків маємо:
і ,у випадку гетероскедастичності, формально можна записати :
де - деяка невідома константа, S – відома квадратна, додатково визначена матриця розміреністю n×n.
Але на відміну від випадку гетероскедастичності матриця S не є діагональною, а є повною,