Передавальне навчання

Матеріал з testwiki
Версія від 11:13, 16 травня 2023, створена imported>InternetArchiveBot (Виправлено джерел: 1; позначено як недійсні: 0.) #IABot (v2.0.9.4)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)
Перейти до навігації Перейти до пошуку

Шаблон:Короткий опис Передава́льне навча́ння (ПН, Шаблон:Lang-en) — це дослідницька задача в машинному навчанні (МН), зосереджена на зберіганні знань, отриманих під час розв'язання однієї задачі, та застосуванні їх до іншої, але пов'язаної задачі.[1][2] Наприклад, знання, отримані під час навчання розпізнаванню легкових автомобілів, може бути застосовано при намаганні розпізнавати вантажівки. Цей напрямок досліджень має певне відношення до тривалої історії психологічної літератури з передавання навчання, хоча практичні зв'язки між цими двома напрямами є обмеженими. З практичної точки зору, повторне використання або передавання інформації з раніше навчених задач для навчання нових задач має потенціал значно покращувати ефективність вибірки агента навчання з підкріпленням.[3]

Історія

Шаблон:Зваженість

1976 року Стево Бозіновський та Анте Фулгосі опублікували працю, в якій чітко розглянуто питання передавального навчання в тренуванні нейронних мереж.[4][5] У цій праці наведено математичну та геометричну модель передавального навчання. 1981 року було зроблено звіт про застосування передавального навчання в тренуванні нейронної мережі на наборі зображень, що представляють літери комп'ютерних терміналів. Було експериментально продемонстровано як позитивне, так і негативне передавальне навчання.[6]

1993 року Лоріен Пратт опублікував статтю про передавання в машиннім навчанні, сформулювавши алгоритм передавання на основі розрізнювальності (Шаблон:Lang-en).[7]

1997 року Пратт та Себастьян Трун стали запрошеними редакторами спеціального випуску журналу «Machine Learning», присвяченого передавальному навчанню,[8] а до 1998 року ця галузь розвинулася до включення Шаблон:Нп[9] а також більш формального аналізу теоретичних основ.[10] «Вчитися вчитися»Шаблон:Sfn під редакцією Труна та Пратта — це огляд цієї теми 1998 року.

Передавальне навчання знайшло застосування також і в когнітивістиці, а Пратта також запрошували 1996 року редагувати випуск журналу «Connection Science» про повторне використання нейронних мереж через передавання.[11]

Ендрю Ин у своєму семінарі на NIPS 2016[12][13][14] сказав, щоби підкреслити важливість ПН, що воно буде наступним рушієм комерційного успіху МН після керованого навчання.

Визначення

Визначення передавального навчання задають у термінах областей визначення та задач. Область визначення 𝒟 складається з простору ознак 𝒳 та відособленого розподілу ймовірності P(X), де X={x1,...,xn}𝒳. Для заданої конкретної області визначення 𝒟={𝒳,P(X)} задача складається з двох складових: простору міток 𝒴 та цільової передбачувальної функції f:𝒳𝒴. Функцію f використовують для передбачування відповідної мітки f(x) нового примірника x. Цієї задачі, позначуваної через 𝒯={𝒴,f(x)}, навчаються з тренувальних даних, що складаються з пар {xi,yi}, де xiX, а yi𝒴.[15]

Для заданої первинної області визначення 𝒟S та задачі навчання 𝒯S, цільової області визначення 𝒟T та задачі навчання 𝒯T, де 𝒟S𝒟T, або 𝒯S𝒯T, передавальне навчання має на меті допомогти покращити навчання цільової передбачувальної функції fT() в 𝒟T, використовуючи знання в 𝒟S і 𝒯S.[15]

Застосування

Існують доступні алгоритми для передавального навчання в Шаблон:Нп[16] та баєсових мережах.[17] Передавальне навчання також застосовували до виявляння підтипів раку,[18] Шаблон:Нп,[19][20] Шаблон:Нп,[21] класифікації текстів,[22][23] розпізнавання цифр,[24] медичного унаочнювання та фільтрування спаму.[25]

2020 року було виявлено, що, завдяки їхній подібній фізичній природі, є можливим передавальне навчання між електроміографічними (ЕМГ) сигналами від м'язів при класифікуванні поведінки електроенцефалографічних (ЕЕГ) мозкових хвиль з області Шаблон:Нп до області розпізнавання психічного стану. Було також зазначено, що цей взаємозв'язок працював і в зворотному напрямку, показуючи, що ЕЕГ також може подібним чином бути додатково використано для класифікування ЕМГ.[26] Ці експерименти відзначали, що точність нейронних мереж та згорткових нейронних мереж покращилася[27] завдяки передавальному навчанню як у першу епоху (до будь-якого тренування, тобто порівняно зі стандартним випадковим розподілом ваг), так і в асимптоті (у кінці процесу навчання). Тобто алгоритми вдосконалюються завдяки впливові іншої області визначення. Більше того, для досягнення кращої продуктивності кінцевий користувач попередньо натренованої моделі може змінювати структуру повноз'єднаних шарів.[28]

Див. також

Примітки

Шаблон:Примітки

Джерела

  1. Шаблон:Cite web Шаблон:Ref-en
  2. Шаблон:Cite thesis
  3. Шаблон:Cite journal Шаблон:Ref-en
  4. Stevo. Bozinovski and Ante Fulgosi (1976). "The influence of pattern similarity and transfer learning upon the training of a base perceptron B2." (original in Croatian) Proceedings of Symposium Informatica 3-121-5, Bled. Шаблон:Ref-en
  5. Stevo Bozinovski (2020) "Reminder of the first paper on transfer learning in neural networks, 1976". Informatica 44: 291–302. Шаблон:Ref-en
  6. S. Bozinovski (1981). "Teaching space: A representation concept for adaptive pattern classification." COINS Technical Report, the University of Massachusetts at Amherst, No 81-28 [available online: UM-CS-1981-028.pdf] Шаблон:Ref-en
  7. Шаблон:Cite book Шаблон:Ref-en
  8. Шаблон:Cite webШаблон:Cbignore Шаблон:Ref-en
  9. Caruana, R., "Multitask Learning", pp. 95-134 in Шаблон:Harvnb Шаблон:Ref-en
  10. Baxter, J., "Theoretical Models of Learning to Learn", pp. 71-95 Шаблон:Harvnb Шаблон:Ref-en
  11. Шаблон:Cite journal Шаблон:Ref-en
  12. Шаблон:Citation Шаблон:Ref-en
  13. Шаблон:Cite web Шаблон:Ref-en
  14. Nuts and bolts of building AI applications using Deep Learning, slides Шаблон:Ref-en
  15. 15,0 15,1 Шаблон:Cite journal Шаблон:Ref-en Матеріал було скопійовано з цього джерела, що є доступним за ліцензією Creative Commons Attribution 4.0 International License. Шаблон:Ref-en
  16. Шаблон:Citation Шаблон:Ref-en
  17. Шаблон:Citation Шаблон:Ref-en
  18. Hajiramezanali, E. & Dadaneh, S. Z. & Karbalayghareh, A. & Zhou, Z. & Qian, X. Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data. 32nd Conference on Neural Information Processing Systems (NeurIPS 2018), Montréal, Canada. Шаблон:Arxiv Шаблон:Ref-en
  19. Шаблон:Cite conference Шаблон:Ref-en
  20. Шаблон:Cite journal Шаблон:Ref-en
  21. Banerjee, Bikramjit, and Peter Stone. "General Game Learning Using Knowledge Transfer Шаблон:Webarchive." IJCAI. 2007. Шаблон:Ref-en
  22. Шаблон:Cite conference Шаблон:Ref-en
  23. Шаблон:Cite conference Шаблон:Ref-en
  24. Шаблон:Cite journal Шаблон:Ref-en
  25. Шаблон:Cite conference Шаблон:Ref-en
  26. Шаблон:Cite journal Шаблон:Ref-en
  27. Шаблон:Cite journal Шаблон:Ref-en
  28. Kabir, H. M., Abdar, M., Jalali, S. M. J., Khosravi, A., Atiya, A. F., Nahavandi, S., & Srinivasan, D. (2020). Spinalnet: Deep neural network with gradual input. arXiv preprint arXiv:2007.03347. Шаблон:Ref-en