Передавальна функція штучного нейрона
Шаблон:Не плутати Функція активації, передавальна функція або функція збудження (Шаблон:Lang-en[1][2][3][4][5], також excitation function, squashing function, transfer function[6]) штучного нейрона — залежність вихідного сигналу штучного нейрона від вхідного.
Зазвичай передавальна функція відображає дійсні числа на інтервал або [1].
Більшість видів нейронних мереж для функції активації використовують сигмоїди[2]. ADALINE і самоорганізаційні карти використовують лінійні функції активації, а радіально базисні мережі використовують радіальні базисні функції[1].
Математично доведено, що тришаровий перцептрон з використанням сигмоїдної функції активації може апроксимувати будь-яку неперервну функцію з довільною точністю (Теорема Цибенка)[1].
Метод зворотного поширення помилки вимагає, щоб функція активації була неперервною, нелінійною, монотонно зростаючою, і диференційовною[1].
В задачі Шаблон:Нп класифікації нейрони останнього шару зазвичай використовують softmax як функцію активації[3].
У хемометриці — функція, яка використовується в методі нейронної сітки для перетворення у вузлах вхідних даних з будь-якої області значень (зокрема неперервних) у чітко окреслений ряд значень (напр., в 0 чи 1).[7]
Порівняння передавальних функцій
Деякі бажані властивості передавальної функції включають:
- Нелінійна — коли передавальна функція нелінійна, то, як доведено, двошарова нейронна мережа є універсальною апроксимацією функцій.[8] Тотожна передавальна функція не має такої властивості. Коли декілька шарів використовують тотожну передавальну функцію, тоді вся мережа еквівалентна одношаровій моделі.
- Неперервна диференційовність — ця властивість бажана (RELU не є неперервно диференційовною і має неоднозначне рішення для оптимізації заснованій на градієнті) для використання методів оптимізації заснованих на градієнті. Передавальна функція двійковий крок не диференційовна у 0, але диференційовна в усіх інших значення, що є проблемою для методів заснованих на градієнті.[9]
- Область визначення.
- Монотонність.
- Гладка функція з монотонною похідною.
- Наближення до тотожної функції в початку координат.
У наступній таблиці порівнюються деякі передавальні функції від однієї змінної Шаблон:Mvar з попереднього шару:
- Шаблон:NoteТут, Шаблон:Mvar це функція Гевісайда.
- Шаблон:NoteШаблон:Mvar є стохастичною змінною вибраною з нормального розподілу під час навчання і зафіксована як очікуване значення розподілу до часу тестування.
- Шаблон:NoteШаблон:NoteШаблон:NoteТут, — логістична функція.
- Шаблон:Note виконується для всього інтервалу.
Наступна таблиця містить передавальні функції від декількох змінних:
| Назва | Рівняння | Похідна(ні) | Область | Порядок гладкості |
|---|---|---|---|---|
| Softmax | for Шаблон:Mvar = 1, …, Шаблон:Mvar | Шаблон:Ref | ||
| Maxout[26] |
Шаблон:Note Тут, — символ Кронекера.
Див. також
Примітки
Шаблон:Диференційовні обчислення
- ↑ 1,0 1,1 1,2 1,3 1,4 Помилка цитування: Неправильний виклик тегу
<ref>: для виносок під назвоюKeLin-Du-2014не вказано текст - ↑ 2,0 2,1 Помилка цитування: Неправильний виклик тегу
<ref>: для виносок під назвоюKeller-2016не вказано текст - ↑ 3,0 3,1 Помилка цитування: Неправильний виклик тегу
<ref>: для виносок під назвоюTarassenko-1998не вказано текст - ↑ Помилка цитування: Неправильний виклик тегу
<ref>: для виносок під назвоюAnthony-2001не вказано текст - ↑ Помилка цитування: Неправильний виклик тегу
<ref>: для виносок під назвоюNielsen-NN-DLне вказано текст - ↑ Помилка цитування: Неправильний виклик тегу
<ref>: для виносок під назвоюStegemann-Buenfeld-1999не вказано текст - ↑ Глосарій термінів з хімії // Й. Опейда, О. Швайка. Ін-т фізико-органічної хімії та вуглехімії ім. Л. М. Литвиненка НАН України, Донецький національний університет. — Донецьк: Вебер, 2008. — 758 с. — ISBN 978-966-335-206-0
- ↑ Шаблон:Cite book
- ↑ Шаблон:Cite book
- ↑ Шаблон:Cite web
- ↑ Шаблон:Citation
- ↑ 12,0 12,1 Шаблон:Cite arxiv
- ↑ Шаблон:Citation
- ↑ Шаблон:Cite journal
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite web
- ↑ Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning
- ↑ Searching for Activation Functions
- ↑ Шаблон:Cite journal
- ↑ Шаблон:Cite arxiv
- ↑ Шаблон:Cite journal
