Послідовна мінімальна оптимізація

Матеріал з testwiki
Перейти до навігації Перейти до пошуку

Шаблон:Infobox Algorithm Послідо́вна мініма́льна оптиміза́ція (ПМО, Шаблон:Lang-en) — це алгоритм розв'язання задачі квадратичного програмування (КП), яка постає при тренуванні опорно-векторних машин (ОВМ, Шаблон:Lang-en). Його було винайдено Шаблон:Нп 1998 року в Microsoft Research.[1] ПМО широко використовується для тренування опорно-векторних машин, і втілюється популярним інструментом LIBSVM.[2][3] Публікація алгоритму ПМО 1998 року викликала велике збудження в спільноті ОВМ, оскільки доступні раніше методи тренування опорно-векторних машин були набагато складнішими, й вимагали дорогих сторонніх інструментів розв'язання задач КП.[4]

Задача оптимізації

Шаблон:Main

Розгляньмо задачу бінарної класифікації з набором даних (x1, y1), …, (xn, yn), де xi є вхідним вектором, а Шаблон:Nobr є відповідною бінарною міткою. Опорно-векторна машина з м'яким проміжком тренується розв'язанням задачі квадратичного програмування, яка виражається в двоїстому вигляді наступним чином:

maxαi=1nαi12i=1nj=1nyiyjK(xi,xj)αiαj
за умов
0αiC, для i=1,2,,n,
i=1nyiαi=0

де C є гіперпараметром ОВМ, а K(xi, xj) є Шаблон:Нп, обидва надані користувачем; а змінні αi є множниками Лагранжа.

Алгоритм

ПМО є ітеративним алгоритмом розв'язання описаної вище задачі оптимізації. ПМО розбиває цю задачу на ряд найменших можливих підзадач, які потім розв'язуються аналітично. Через лінійну рівність в обмеженнях, яка включає лагранжеві множники αi, найменша можлива задача включає два такі множники. Тоді для будь-яких двох множників α1 і α2 обмеження зводяться до

0α1,α2C,
y1α1+y2α2=k,

і цю звужену задачу можливо розв'язувати аналітично: потрібно знаходити мінімум одновимірної квадратичної функції. k є сумою решти членів у обмеженні-рівнянні з протилежним знаком, яка є незмінною на кожній ітерації.

Алгоритм діє наступним чином:

  1. Знайти лагранжів множник α1, який порушує умови Каруша — Куна — Такера (ККТ) для задачі оптимізації.
  2. Вибрати другий множник α2, й оптимізувати пару (α1,α2).
  3. Повторювати кроки 1 та 2 до збігання.

Коли всі лагранжеві множники задовольняють умови ККТ (в межах визначеного користувачем допуску), задачу розв'язано. Хоч цей алгоритм і збігається гарантовано, для вибору пар множників застосовується евристика, щоби прискорити темп збігання. Це є критичним для великих наборів даних, оскільки існує n(n − 1) можливих варіантів вибору αi та αj.

Пов'язані праці

Перший підхід до розділення великих задач навчання ОВМ на ряд менших оптимізаційних завдань було запропоновано Шаблон:Нпні, Шаблон:Нпні та Володимиром Вапником.[5] Він відомий як «кусеневий алгоритм» (Шаблон:Lang-en). Цей алгоритм починається з випадкового піднабору даних, розв'язує цю задачу, й ітеративно додає зразки, які порушують умови оптимальності. Одним із недоліків цього алгоритму є необхідність розв'язання задач КП, які масштабуються з числом опорних векторів. На реальних розріджених наборах даних ПМО може бути швидшою за кусеневий алгоритм в понад 1000 разів.[1]

1997 року Шаблон:Нпні, Шаблон:Нпні та Шаблон:Нпні довели теорему, яка пропонує цілий ряд нових алгоритмів КП для ОВМ.[6] В силу цієї теореми велику задачу КП може бути розбито на ряд менших підзадач КП. Послідовність підзадач КП, яка завжди додає щонайменше одного порушника умов Каруша — Куна — Такера (ККТ), гарантовано збігається. Кусеневий алгоритм задовольняє умови цієї теореми і, отже, збігатиметься.[1] Алгоритм ПМО можна розглядати як окремий випадок алгоритму Осуни, де розміром оптимізації є два, й обидва лагранжеві множники замінюються на кожному кроці новими множниками, які обираються за допомогою доброї евристики.[1]

Алгоритм ПМО тісно пов'язаний із сімейством алгоритмів оптимізації, що зветься Шаблон:Нп, або рядково-активаційними методами. Ці методи розв'язують задачі опуклого програмування з лінійними обмеженнями. Вони є ітеративними методами, де кожен крок робить проєкцію поточної прямої точки на кожне з обмежень.[1]

Див. також

Примітки

Шаблон:Примітки