Передавальне навчання
Шаблон:Короткий опис Передава́льне навча́ння (ПН, Шаблон:Lang-en) — це дослідницька задача в машинному навчанні (МН), зосереджена на зберіганні знань, отриманих під час розв'язання однієї задачі, та застосуванні їх до іншої, але пов'язаної задачі.[1][2] Наприклад, знання, отримані під час навчання розпізнаванню легкових автомобілів, може бути застосовано при намаганні розпізнавати вантажівки. Цей напрямок досліджень має певне відношення до тривалої історії психологічної літератури з передавання навчання, хоча практичні зв'язки між цими двома напрямами є обмеженими. З практичної точки зору, повторне використання або передавання інформації з раніше навчених задач для навчання нових задач має потенціал значно покращувати ефективність вибірки агента навчання з підкріпленням.[3]
Історія
1976 року Стево Бозіновський та Анте Фулгосі опублікували працю, в якій чітко розглянуто питання передавального навчання в тренуванні нейронних мереж.[4][5] У цій праці наведено математичну та геометричну модель передавального навчання. 1981 року було зроблено звіт про застосування передавального навчання в тренуванні нейронної мережі на наборі зображень, що представляють літери комп'ютерних терміналів. Було експериментально продемонстровано як позитивне, так і негативне передавальне навчання.[6]
1993 року Лоріен Пратт опублікував статтю про передавання в машиннім навчанні, сформулювавши алгоритм передавання на основі розрізнювальності (Шаблон:Lang-en).[7]
1997 року Пратт та Себастьян Трун стали запрошеними редакторами спеціального випуску журналу «Machine Learning», присвяченого передавальному навчанню,[8] а до 1998 року ця галузь розвинулася до включення Шаблон:Нп[9] а також більш формального аналізу теоретичних основ.[10] «Вчитися вчитися»Шаблон:Sfn під редакцією Труна та Пратта — це огляд цієї теми 1998 року.
Передавальне навчання знайшло застосування також і в когнітивістиці, а Пратта також запрошували 1996 року редагувати випуск журналу «Connection Science» про повторне використання нейронних мереж через передавання.[11]
Ендрю Ин у своєму семінарі на NIPS 2016[12][13][14] сказав, щоби підкреслити важливість ПН, що воно буде наступним рушієм комерційного успіху МН після керованого навчання.
Визначення
Визначення передавального навчання задають у термінах областей визначення та задач. Область визначення складається з простору ознак та відособленого розподілу ймовірності , де . Для заданої конкретної області визначення задача складається з двох складових: простору міток та цільової передбачувальної функції . Функцію використовують для передбачування відповідної мітки нового примірника . Цієї задачі, позначуваної через , навчаються з тренувальних даних, що складаються з пар , де , а .[15]
Для заданої первинної області визначення та задачі навчання , цільової області визначення та задачі навчання , де , або , передавальне навчання має на меті допомогти покращити навчання цільової передбачувальної функції в , використовуючи знання в і .[15]
Застосування
Існують доступні алгоритми для передавального навчання в Шаблон:Нп[16] та баєсових мережах.[17] Передавальне навчання також застосовували до виявляння підтипів раку,[18] Шаблон:Нп,[19][20] Шаблон:Нп,[21] класифікації текстів,[22][23] розпізнавання цифр,[24] медичного унаочнювання та фільтрування спаму.[25]
2020 року було виявлено, що, завдяки їхній подібній фізичній природі, є можливим передавальне навчання між електроміографічними (ЕМГ) сигналами від м'язів при класифікуванні поведінки електроенцефалографічних (ЕЕГ) мозкових хвиль з області Шаблон:Нп до області розпізнавання психічного стану. Було також зазначено, що цей взаємозв'язок працював і в зворотному напрямку, показуючи, що ЕЕГ також може подібним чином бути додатково використано для класифікування ЕМГ.[26] Ці експерименти відзначали, що точність нейронних мереж та згорткових нейронних мереж покращилася[27] завдяки передавальному навчанню як у першу епоху (до будь-якого тренування, тобто порівняно зі стандартним випадковим розподілом ваг), так і в асимптоті (у кінці процесу навчання). Тобто алгоритми вдосконалюються завдяки впливові іншої області визначення. Більше того, для досягнення кращої продуктивності кінцевий користувач попередньо натренованої моделі може змінювати структуру повноз'єднаних шарів.[28]
Див. також
Примітки
Джерела
- ↑ Шаблон:Cite web Шаблон:Ref-en
- ↑ Шаблон:Cite thesis
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Stevo. Bozinovski and Ante Fulgosi (1976). "The influence of pattern similarity and transfer learning upon the training of a base perceptron B2." (original in Croatian) Proceedings of Symposium Informatica 3-121-5, Bled. Шаблон:Ref-en
- ↑ Stevo Bozinovski (2020) "Reminder of the first paper on transfer learning in neural networks, 1976". Informatica 44: 291–302. Шаблон:Ref-en
- ↑ S. Bozinovski (1981). "Teaching space: A representation concept for adaptive pattern classification." COINS Technical Report, the University of Massachusetts at Amherst, No 81-28 [available online: UM-CS-1981-028.pdf] Шаблон:Ref-en
- ↑ Шаблон:Cite book Шаблон:Ref-en
- ↑ Шаблон:Cite webШаблон:Cbignore Шаблон:Ref-en
- ↑ Caruana, R., "Multitask Learning", pp. 95-134 in Шаблон:Harvnb Шаблон:Ref-en
- ↑ Baxter, J., "Theoretical Models of Learning to Learn", pp. 71-95 Шаблон:Harvnb Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Citation Шаблон:Ref-en
- ↑ Шаблон:Cite web Шаблон:Ref-en
- ↑ Nuts and bolts of building AI applications using Deep Learning, slides Шаблон:Ref-en
- ↑ 15,0 15,1 Шаблон:Cite journal Шаблон:Ref-en
Матеріал було скопійовано з цього джерела, що є доступним за ліцензією Creative Commons Attribution 4.0 International License. Шаблон:Ref-en
- ↑ Шаблон:Citation Шаблон:Ref-en
- ↑ Шаблон:Citation Шаблон:Ref-en
- ↑ Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. Шаблон:Arxiv Шаблон:Ref-en
- ↑ Шаблон:Cite conference Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Banerjee, Bikramjit, and Peter Stone. "General Game Learning Using Knowledge Transfer Шаблон:Webarchive." IJCAI. 2007. Шаблон:Ref-en
- ↑ Шаблон:Cite conference Шаблон:Ref-en
- ↑ Шаблон:Cite conference Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite conference Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Шаблон:Cite journal Шаблон:Ref-en
- ↑ Kabir, H. M., Abdar, M., Jalali, S. M. J., Khosravi, A., Atiya, A. F., Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: Deep neural network with gradual input. arXiv preprint arXiv:2007.03347. Шаблон:Ref-en