Компроміс зсуву та дисперсії

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

Шаблон:Машинне навчання Шаблон:Multiple image

У статистиці та машинному навчанні, компромі́с (або диле́ма) зсу́ву та диспе́рсії (Шаблон:Lang-en) — це задача одночасної мінімізації двох джерел похибки, які перешкоджають алгоритмам керованого навчання робити узагальнення на основі їхніх тренувальних наборів:

  • Зсув (Шаблон:Lang-en) — це похибка, викликана помилковими припущеннями в алгоритмі навчання. Великий зсув може спричиняти нездатність алгоритму знаходити доречні взаємозв'язки між ознаками та цільовими виходами (недонавчання).
  • Дисперсія (Шаблон:Lang-en) — це похибка від чутливості до малих флуктуацій в тренувальному наборі. Висока дисперсія може спричиняти перенавчання: моделювання випадкового Шаблон:Нп в тренувальних даних замість моделювання бажаних виходів.

Ро́зклад на зсув та диспе́рсію (Шаблон:Lang-en) — це спосіб аналізувати очікувану похибку узагальнення алгоритму навчання по відношенню до тієї чи іншої задачі як суму трьох членів: зсуву, дисперсії, та величини, що називається незнижуваною похибкою (Шаблон:Lang-en), яка виникає внаслідок шуму в самій задачі.

Цей компроміс застосовується до всіх видів керованого навчання: класифікації, регресії (узгодження функцій)[1][2] та навчання структурованого виходу. Його також залучали для пояснення дієвості евристик у людському навчанні.

Задача

Компроміс зсуву та дисперсії є центральною задачею в керованому навчанні. В ідеалі потрібно обирати модель, яка і закономірності в своїх тренувальних даних схоплює добре, але й добре узагальнює їх для ще не бачених даних. На жаль, зазвичай неможливо робити те і друге одночасно. Методи навчання з високою дисперсією можуть бути здатними добре представляти свої тренувальні набори, але перебувають під загрозою перенавчання зашумлених або нехарактерних тренувальних даних. На противагу їм, алгоритми з великим зсувом зазвичай видають простіші моделі, не схильні до перенавчання, але можуть недопідлаштовуватися до своїх тренувальних даних, виявляючись нездатними схопити важливі закономірності.

Моделі з малим зсувом зазвичай є складнішими (наприклад, регресійними многочленами високого порядку), що дозволяє їм представляти тренувальний набір точніше. Проте в процесі вони можуть також представляти й велику складову Шаблон:Нп, присутню в тренувальному наборі, роблячи свої передбачення менш точними — незважаючи на свою додану складність. З іншого боку, моделі з великим зсувом схильні бути відносно простими (регресійними многочленами низького порядку, або навіть лінійними), але можуть видавати передбачення з нижчою дисперсією при застосуванні поза межами тренувального набору.

Розклад квадратичної помилки на зсув та дисперсію

Припустімо, що в нас є тренувальний набір, який складається з набору точок x1,,xn та дійсних значень yi, пов'язаних з кожною із точок xi. Ми виходимо з того, що існує функційний, але зашумлений взаємозв'язок y=f(x)+ε, в якому шум ε має нульове середнє значення та дисперсію σ2.

Нам треба знайти функцію f^(x;D), що якомога краще наближує справжню функцію f(x) засобами якогось алгоритму навчання на навчальній вибірці D={(x1,y1),(xn,yn)}. Ми робимо «якомога краще» точним поняттям, вимірюючи середньоквадратичну похибку y відносно f^(x;D): ми хочемо, щоби (yf^(x;D))2 було мінімальним, як для x1,,xn, так і для точок за межами нашої вибірки. Звісно, ми не можемо сподіватися зробити це досконало, оскільки yi містять шум ε; це означає, що ми мусимо бути готові допустити незнижувану похибку в будь-якій функції, яку б ми не придумали.

Пошук f^, яка узагальнюється на точки за межами тренувального набору, може бути здійснено за допомогою будь-якого із багатьох алгоритмів, що застосовуються для керованого навчання. Виявляється, що яку би функцію f^ ми не обрали, ми можемо розкласти математичне сподівання її похибки на небаченому зразкові x наступним чином:[3]Шаблон:Rp[4]Шаблон:Rp

ED,ε[(yf^(x;D))2]=(BiasD[f^(x;D)])2+VarD[f^(x;D)]+σ2.

Де

BiasD[f^(x;D)]=ED[f^(x;D)]f(x),

а

VarD[f^(x;D)]=ED[(ED[f^(x;D)]f^(x;D))2].

Математичне сподівання пробігає різні варіанти вибору тренувального набору D={(x1,y1),(xn,yn)}, всі вибрані з одного й того ж (умовного) розподілу P(x,y). Ці три члени представляють:

  • квадрат зсуву методу навчання, що можна розглядати як похибку, спричинену спрощувальними припущеннями, вбудованих до цього методу. Наприклад, при наближуванні нелінійної функції f(x) із застосуванням методу навчання для лінійних моделей в оцінках f^(x) буде присутня похибка внаслідок припущення лінійності;
  • дисперсію методу навчання, або, інтуїтивно, наскільки сильно метод навчання f^(x) рухатиметься навколо свого середнього значення;
  • незнижувану похибку σ2. Оскільки всі три члени є невід'ємними, вона формує обмеження знизу для математичного сподівання похибки на небачених зразках.[3]Шаблон:Rp

Що складнішою є модель f^(x), то більше точок даних вона схоплюватиме, і то меншим буде зсув. Проте, складність робитиме так, що модель більше «рухатиметься», щоби захопити точки даних, і відтак її дисперсія буде вищою.

Виведення

Виведення розкладу на зсув та дисперсію для квадратичних помилок відбувається наступним чином.[5][6] Для зручності позначення введімо скорочення f=f(x) та f^=f^(x;D) та опустимо індекс D. По-перше, зауважте, що для будь-якої випадкової змінної X ми маємо

Var[X]=E[X2]E[X]2.

Перегрупувавши, отримуємо

E[X2]=Var[X]+E[X]2.

Оскільки f є детермінованою,

E[f]=f.

З цього, за умови y=f+ε та E[ε]=0 (оскільки ε — це шум), випливає, що E[y]=E[f+ε]=E[f]=f.

Також, оскільки Var[ε]=σ2,

Var[y]=E[(yE[y])2]=E[(yf)2]=E[(f+εf)2]=E[ε2]=Var[ε]+E[ε]2=σ2+02=σ2.

Отже, оскільки ε та f^ є незалежними, ми можемо записати, що

E[(yf^)2]=E[(f+εf^)2]=E[(f+εf^+E[f^]E[f^])2]=E[(fE[f^])2]+E[ε2]+E[(E[f^]f^)2]+2E[(fE[f^])ε]+2E[ε(E[f^]f^)]+2E[(E[f^]f^)(fE[f^])]=(fE[f^])2+E[ε2]+E[(E[f^]f^)2]+2(fE[f^])E[ε]+2E[ε]E[E[f^]f^]+2E[E[f^]f^](fE[f^])=(fE[f^])2+E[ε2]+E[(E[f^]f^)2]=(fE[f^])2+Var[ε]+Var[f^]=Bias[f^]2+Var[ε]+Var[f^]=Bias[f^]2+σ2+Var[f^].

Остаточно, функція втрат середньо-квадратичної похибки MSE (або від'ємна лог-функція правдомодібності) отримується шляхом взяття математичного сподівання xP:

MSE=Ex{BiasD[f^(x;D)]2+VarD[f^(x;D)]}+σ2.

Застосування до класифікації

Розклад на зсув та дисперсію спершу було сформульованого для регресії методом найменших квадратів. Можливо знайти подібний розклад і для випадку класифікації за втрат 0-1 (коефіцієнт помилок класифікації).[7][8] Як альтернатива, якщо задачу класифікації може бути перефразовано як імовірнісну класифікацію, то математичне сподівання квадрату похибки передбачуваних імовірностей по відношенню до справжніх імовірностей може бути розкладено, як і раніше.[9]

Підходи

Зниження розмірності та обирання ознак можуть знижувати дисперсію шляхом спрощення моделей. Аналогічно, зниженню дисперсії сприяє більший тренувальний набір. Додавання ознак (провісників) сприяє зниженню зсуву, ціною введення додаткової дисперсії. Алгоритми навчання зазвичай мають деякі налагоджувані параметри, які контролюють зсув та дисперсію, наприклад:

Одним зі шляхів розв'язання цієї дилеми є застосування Шаблон:Нп та ансамблевого навчання.[12][13] Наприклад, підсилювання багато «слабких» моделей (із великим зсувом) поєднує в ансамбль, який має менший зсув, ніж окремі моделі, тоді як натяжкове агрегування поєднує «сильні» системи навчання таким чином, що знижує їхню дисперсію.

k-найближчі сусіди

У випадку [[Метод k-найближчих сусідів|регресії Шаблон:Mvar-найближчих сусідів]] існує вираз замкненого вигляду, який ставить у відповідність розклад на зсув та дисперсію до параметру Шаблон:Mvar:[4]Шаблон:Rp

E[(yf^(x))2]=(f(x)1ki=1kf(Ni(x)))2+σ2k+σ2

де N1(x),,Nk(x) є Шаблон:Mvar найближчими сусідами Шаблон:Mvar у тренувальному наборі. Зсув (перший член) є монотонно зростаючою функцією від Шаблон:Mvar, тоді як дисперсія (другий член) при збільшенні Шаблон:Mvar спадає. Справді, за «розсудливих припущень» зсув оцінки першого-найближчого сусіда (1-НС, Шаблон:Lang-en) зникає повністю, оскільки розмір тренувальної вибірки наближується до нескінченності.[1]

Застосування до людського навчання

В той час як дилему зсуву та дисперсії широко обговорювали в контексті машинного навчання, її розглядали і в контексті людського пізнання, перш за все Шаблон:Нп зі співробітниками в контексті навчених евристик. Вони переконували (див. посилання нижче), що людський мозок розв'язує цю дилему в випадку зазвичай розріджених, погано виражених тренувальних наборів, забезпечених досвідом, шляхом обрання евристики сильного зсуву/низької дисперсії. Це віддзеркалює той факт, що підхід нульового зсуву має погану узагальнюваність на нові ситуації, а також нерозсудливо припускає точне знання справжнього стану світу. Отримувані в результаті евристики є відносно простими, але дають кращі висновки в ширшому розмаїтті ситуацій.[14]

Шаблон:Нп та ін.[1] переконують, що дилема зсуву та дисперсії означає, що таких здібностей, як узагальнене розпізнавання об'єктів, не може бути навчено з нуля, що вони вимагають певної міри «жорсткої розводки», яка потім налаштовується досвідом. Причиною цього є те, що безмодельні підходи до отримання висновків для уникнення високої дисперсії вимагають непрактично великих тренувальних наборів.

Див. також

Шаблон:Div col

Шаблон:Div col end

Примітки

Шаблон:Примітки

Посилання