Мультиколінеарність

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

Під мультиколінеарністю розуміють наявність лінійної залежності між двома або більше факторними (незалежними) змінними у регресійній моделі.

Приклади мультиколінеарності

Якщо два предиктори (незалежні змінні) у моделі є однією змінною але у різних метричниї шкалах. Наприклад, ріст людини у сантиметрах і ріст людини у дюймах. Коефіцієнт кореляції між двома змінними буде рівен 1. Аби уникнути мультиколінеарності, у модель має вступувати лише одна із двох змінних.

Наслідки мультиколінеарності

  • зміщення оцінок параметрів моделі;
  • збільшення коваріації оцінок;
  • незначущість параметрів моделі (t-статистика менша за критичну).

Ознаки мультиколінеарності

  • велике значення коефіцієнту детермінації поряд з незначущістю коефіцієнтів моделі;
  • велике значення парних коефіцієнтів кореляції незалежних (факторних) змінних.

Методи виявлення мультиколінеарності

Алгоритм Фаррара-Глобера

  1. Складається матриця R попарних коефіцієнтів кореляції: R=(1r12r13...r1mr211r23...r2m...............rm1rm2rm3...1), де m — кількість факторних змінних у моделі;
  2. Обчислюється визначник матриці R: |R|;
  3. Розраховується χ2=((n1)2k+36)ln|R|;
  4. Якщо χ2 більше критичного (табличного) значення, то мультиколінеарність у моделі присутня.

VIF

Розрахунок дисперсійно-інфляційного VIF-фактору для кожного з коефіцієнтів моделі за формулою:

VIF=11Rj2,

де :Rj2 є коефіцієнт детермінації. Вважається, що коєфіцієнти, VIF-фактор яких більший за 10 є мультиколінеарними. [1] Шаблон:Webarchive

Джерела