Ймовірнісна класифікація

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

Шаблон:Машинне навчання

У машинному навчанні, ймові́рнісний класифіка́тор (Шаблон:Lang-en) — це класифікатор, здатний для заданого зразка входу передбачувати розподіл імовірності над множиною класів, а не просто видавати найправдоподібніший клас, до якого повинен був би належати цей зразок. Імовірнісні класифікатори забезпечують класифікацію зі ступенем упевненості, що може бути корисним як саме по собі,[1] так і при поєднанні класифікаторів у ансамблі.

Типи класифікації

Формально, «звичайний» класифікатор є якимось правилом або функцією, яка призначає зразкові Шаблон:Mvar мітку класу Шаблон:Mvar:

y^=f(x)

Зразки походять із якоїсь множини Шаблон:Mvar (наприклад, множини всіх документів, або множини всіх зображень), тоді як мітки класів формують скінченну множину Шаблон:Mvar, визначену до тренування.

Ймовірнісні ж класифікатори узагальнюють це поняття класифікаторів: замість функцій, вони є умовними розподілами Pr(Y|X), що означає, що для заданого xX вони призначають імовірності всім yY (і ці ймовірності дають у сумі одиницю). «Жорстка» класифікація тоді може здійснюватися шляхом застосуванням правила оптимального рішення[2]Шаблон:Rp

y^=argmaxyPr(Y=y|X)

або, українською, передбачуваний клас є тим, який має найвищу ймовірність.

Бінарні ймовірнісні класифікатори в статистиці також називають Шаблон:Нп. В економетрії ймовірнісну класифікацію в цілому називають дискретним вибором.

Деякі моделі класифікації, такі як наївний баєсів класифікатор, логістична регресія та багатошарові перцептрони (при тренуванні за відповідної функції втрат) є природно ймовірнісними. Інші моделі, такі як опорно-векторні машини, такими не є, але існують методи перетворення їх на ймовірнісні класифікатори.

Породжувальне та обумовлювальне тренування

Деякі моделі, такі як логістична регресія, є тренованими обумовлювально: вони оптимізують на тренувальному наборі безпосередньо умовну ймовірність Pr(Y|X) (див. мінімізацію емпіричного ризику). Інші класифікатори, такі як наївний баєсів, тренуються породжувально: під час тренування знаходяться розподіл обумовлення класами Pr(X|Y) та апріорне класів Pr(Y), а умовний розподіл Pr(Y|X) виводиться через правило Баєса.[2]Шаблон:Rp

Калібрування ймовірності

Не всі класифікаційні моделі є природно ймовірнісними, а деякі, які є, зокрема, наївні баєсові класифікатори, дерева рішень та методи підсилювання, виробляють спотворені розподіли ймовірностей класів.[3] У випадку дерев рішень, де Шаблон:Math є пропорцією тренувальних зразків з міткою Шаблон:Mvar у листку, де закінчується Шаблон:Math, ці спотворення виникають тому, що алгоритми навчання, такі як C4.5 або Шаблон:Нп, явно спрямовані на вироблення гомогенних листків (даючи ймовірності, близькі до нуля або одиниці, й відтак високий зсув) при одночасному використанні незначної кількості зразків для оцінки доречної пропорції (висока дисперсія).[4]

Для класифікаційних моделей, які виробляють на своїх виходах якогось роду «бал» (такий як спотворений розподіл імовірності, або «знак відстані до гіперплощини» в опорно-векторній машині), існує кілька методів, які перетворюють ці бали на правильно Шаблон:Нп ймовірності приналежності до класів.

Для бінарного випадку загальний підхід полягає в застосуванні Шаблон:Нп, яке навчається моделі логістичної регресії на балах.[5] Альтернативний метод із застосуванням Шаблон:Нп,[6] як правило, перевершує метод Платта, коли доступно достатньо тренувальних даних.[3]

У Шаблон:Нп випадку можна використовувати зведення до бінарних задач з наступним одновимірним калібруванням за описаним вище алгоритмом, і подальшим застосуванням алгоритму попарного з'єднання Гасті та Тібширані.[7]

Оцінка ймовірнісної класифікації

До часто вживаних функцій втрат для ймовірнісної класифікації належать Шаблон:Нп та середньоквадратична похибка між передбаченими та справжніми розподілами ймовірності. Перша з них зазвичай використовується для тренування логістичних моделей.

Метод, який використовується для призначення балів парам передбачених імовірностей та фактичних результатів розподілів, так, що різні передбачувальні методи можна порівнювати, називається Шаблон:Нп.

Примітки

Шаблон:Примітки