Регресія Демінга

Матеріал з testwiki
Версія від 05:55, 8 серпня 2024, створена imported>Tolsai (growthexperiments-addlink-summary-summary:1|0|2)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)
Перейти до навігації Перейти до пошуку
Регресія Демінга. Червоні відрізки показують похибку як x, так й y. Цей підхід відрізняється від традиційного методу найменших квадратів, який вимірює похибку тільки для y, тобто, береться відстань відрізків паралельних осі y. На малюнку, відхилення вимірюється перпендикулярно до прямої. Така ситуація виникає, коли похибки x та y мають однакове відхилення.

У статистиці регресія Демінга (названа на честь В. Едвардса Демінга) є моделлю з похибками у змінних, яка намагається знайти лінію, яка найкраще підходить для двовимірного набору даних. Вона відрізняється від простої лінійної регресії тим, що пояснює похибку в спостереженнях як на осі x, так і на осі y. Це особливий випадок загальних найменших квадратів, що дозволяє приймати будь-яку кількість показників для прогнозу й складнішу структуру помилок.

Регресія Демінга еквівалентна методу максимальної правдоподібності моделі похибок у змінних, в якій похибки для двох змінних вважаються незалежними й нормально розподіленими, та відомо співвідношення їхніх відхилень, позначених δ.[1] На практиці це співвідношення можна оцінити з відповідних джерел даних; проте процедура регресії не враховує можливі похибки при оцінці цього співвідношення.

Регресію Демінга лише трохи складніше обчислити в порівнянні з простою лінійною регресією. Більшість статистичних програмних пакетів, що використовуються в клінічній хімії, пропонують регресію Демінга.

Модель спочатку була введена Адкоком (1878), який розглядав випадок δ = 1, а потім більш загалом Куммел (1879) з довільним δ. Проте їхні ідеї залишалися значною мірою непоміченими понад 50 років, поки їх не відродив Коопманс (1937). Пізніше ще більше пропагував Демінг (1943). Остання книга стала настільки популярною в клінічній хімії та суміжних областях, що цей метод навіть був названий регресією Демінга в цих областях.[2]

Уточнення

Припустимо, що наявні дані (yi, xi) є виміряними спостереженнями «істинних» значень (yi*, xi*), які лежать на лінії регресії:

yi=yi*+εi,xi=xi*+ηi,

де помилки ε та η незалежні, а відношення їх відхилень вважається відомим:

δ=σε2ση2.

На практиці відхилення параметрів x та y часто невідоме, що ускладнює оцінку δ. Зверніть увагу, що коли метод вимірювання для x та y є однаковим, ці відхилення, ймовірно, також будуть однаковими, тому δ=1 для цього випадку.

Ми прагнемо знайти таку лінію «найкращого підходу»,

y*=β0+β1x*,

де зважена сума квадратних залишків моделі зведена до мінімуму:[3]

SSR=i=1n(εi2σε2+ηi2ση2)=1σε2i=1n((yiβ0β1xi*)2+δ(xixi*)2)  minβ0,β1,x1*,,xn*SSR

Дивись Jensen (2007)[4] для повного виведення.

Рішення

Рішення може бути виражено через моменти вибірки другого ступеня. Тобто спочатку обчислюємо наступні величини (всі суми йдуть від i = 1 to n):

x=1nxi,y=1nyi,sxx=1n1(xix)2,sxy=1n1(xix)(yiy),syy=1n1(yiy)2.

Нарешті, оцінки найменших квадратів параметрів моделі будуть[5]

β^1=syyδsxx+(syyδsxx)2+4δsxy22sxy,β^0=yβ^1x,x^i*=xi+β^1β^12+δ(yiβ^0β^1xi).

Ортогональна регресія

Для випадку рівних відхилень похибки, тобто коли δ=1, регресія Демінга стає ортогональною регресією: вона мінімізує суму квадратів перпендикулярних відстаней від точок даних до лінії регресії. У цьому випадку позначимо кожне спостереження як точку zj в комплексній площині (тобто, точка (xj, yj) записується як zj = xj + iyj, де i — уявна одиниця). Позначимо як Z суму квадратичних відмінностей точок даних від центроїда (також позначається в комплексних координатах), яка є точкою, горизонтальними та вертикальними розташуваннями якої є середні значення цих точок даних. Тоді:[6]

  • Якщо Z = 0, то кожна лінія через центроїд є лінією з найкращим ортогональним підходом.
  • Якщо Z ≠ 0, лінія ортогональної регресії проходить через центроїд і паралельна вектору від початку до Z.

Тригонометричне представлення лінії ортогональної регресії було дано Кулідж в 1913 році.[7]

Додаток

У випадку трьох не колінеарних точок у площині трикутник з цими точками, як його вершини, має унікальний еліпс Штайнера, дотичний до сторін трикутника в їхніх серединах. Велика вісь цього еліпса падає на ортогональну лінію регресії для трьох вершин.[8]

Див. також

Примітки

Шаблон:Reflist

Список літератури

  1. Шаблон:Harv
  2. Cornbleet, Gochman (1979)
  3. Fuller, ch.1.3.3
  4. Jensen, Anders Christian (2007)
  5. Glaister (2001)
  6. Minda and Phelps (2008), Theorem 2.3.
  7. Coolidge, J. L. (1913).
  8. Minda and Phelps (2008), Corollary 2.4.