fbpx
维基百科

激活函数

计算网络中, 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出。标准的计算机芯片电路可以看作是根据输入得到(1)或(0)输出的數位電路激活函数。这与神经网络中的线性感知机的行为类似。然而,只有非線性激活函数才允許這種網絡僅使用少量節點來計算非平凡問題。 在人工神經網絡中,這個功能也被稱為傳遞函數

单变量输入激活函數 编辑

名稱 函數圖形 方程式 導數 區間 连续性[1] 單調 一阶导数单调 原点近似恒等
恆等函數          
單位階躍函數          
邏輯函數 (S函數的一种)    [2]      
雙曲正切函數          
反正切函數          
Softsign 函數[1][2]          
反平方根函數 (ISRU)[3]          
線性整流函數 (ReLU)          
帶泄露線性整流函數 (Leaky ReLU)          
參數化線性整流函數 (PReLU)[4]           Yes iff   Yes iff  
帶泄露隨機線性整流函數 (RReLU)[5]    [3]      
指數線性函數 (ELU)[6]           Yes iff   Yes iff   Yes iff  
擴展指數線性函數 (SELU)[7]  

with   and  

     
S 型線性整流激活函數 (SReLU)[8]  
  are parameters.
     
反平方根線性函數 (ISRLU)[3]          
自適應分段線性函數 (APL)[9]    [4]    
SoftPlus 函數[10]          
彎曲恆等函數          
S 型线性加权函数 (SiLU)[11] (也被稱為Swish[12])  [5]  [6]    
软指数函數[13]           Yes iff  
正弦函數          
Sinc 函數          
高斯函數          

说明

^ 若一函数是连续的,则称其为 函数;若一函数 阶可导,并且其 阶导函数连续,则为 函数( );若一函数对于所有 都属于 函数,则称其为 函数,也称光滑函数
^ 此處H單位階躍函數
^ α是在訓練時間從均勻分佈中抽取的隨機變量,並且在測試時間固定為分佈的期望值
^ ^ ^ 此處 邏輯函數

多变量输入激活函数 编辑

名稱 方程式 導數 區間 光滑性
Softmax函數      for i = 1, …, J  [7]    
Maxout函數[14]        

说明

^ 此處δ克羅內克δ函數

參見 编辑

參考資料 编辑

  1. ^ Bergstra, James; Desjardins, Guillaume; Lamblin, Pascal; Bengio, Yoshua. . Département d’Informatique et de Recherche Opérationnelle, Université de Montréal. 2009. (原始内容存档于2018-09-25). 
  2. ^ Glorot, Xavier; Bengio, Yoshua, Understanding the difficulty of training deep feedforward neural networks (PDF), International Conference on Artificial Intelligence and Statistics (AISTATS’10), Society for Artificial Intelligence and Statistics, 2010, (原始内容 (PDF)于2017-04-01) 
  3. ^ 3.0 3.1 Carlile, Brad; Delamarter, Guy; Kinney, Paul; Marti, Akiko; Whitney, Brian. Improving Deep Learning by Inverse Square Root Linear Units (ISRLUs). 2017-11-09. arXiv:1710.09967  [cs.LG]. 
  4. ^ He, Kaiming; Zhang, Xiangyu; Ren, Shaoqing; Sun, Jian. Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification. 2015-02-06. arXiv:1502.01852  [cs.CV]. 
  5. ^ Xu, Bing; Wang, Naiyan; Chen, Tianqi; Li, Mu. Empirical Evaluation of Rectified Activations in Convolutional Network. 2015-05-04. arXiv:1505.00853  [cs.LG]. 
  6. ^ Clevert, Djork-Arné; Unterthiner, Thomas; Hochreiter, Sepp. Fast and Accurate Deep Network Learning by Exponential Linear Units (ELUs). 2015-11-23. arXiv:1511.07289  [cs.LG]. 
  7. ^ Klambauer, Günter; Unterthiner, Thomas; Mayr, Andreas; Hochreiter, Sepp. Self-Normalizing Neural Networks. 2017-06-08. arXiv:1706.02515  [cs.LG]. 
  8. ^ Jin, Xiaojie; Xu, Chunyan; Feng, Jiashi; Wei, Yunchao; Xiong, Junjun; Yan, Shuicheng. Deep Learning with S-shaped Rectified Linear Activation Units. 2015-12-22. arXiv:1512.07030  [cs.CV]. 
  9. ^ Forest Agostinelli; Matthew Hoffman; Peter Sadowski; Pierre Baldi. Learning Activation Functions to Improve Deep Neural Networks. 21 Dec 2014. arXiv:1412.6830  [cs.NE]. 
  10. ^ Glorot, Xavier; Bordes, Antoine; Bengio, Yoshua. Deep sparse rectifier neural networks (PDF). International Conference on Artificial Intelligence and Statistics. 2011. (原始内容 (PDF)于2018-06-19). 
  11. ^ Sigmoid-Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning. [2018-06-13]. (原始内容于2018-06-13). 
  12. ^ Searching for Activation Functions. [2018-06-13]. (原始内容于2018-06-13). 
  13. ^ Godfrey, Luke B.; Gashler, Michael S. A continuum among logarithmic, linear, and exponential functions, and its potential to improve generalization in neural networks. 7th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management: KDIR. 2016-02-03, 1602: 481–486. Bibcode:2016arXiv160201321G. arXiv:1602.01321 . 
  14. ^ Goodfellow, Ian J.; Warde-Farley, David; Mirza, Mehdi; Courville, Aaron; Bengio, Yoshua. Maxout Networks. JMLR WCP. 2013-02-18, 28 (3): 1319–1327. Bibcode:2013arXiv1302.4389G. arXiv:1302.4389 . 

激活函数, 此條目可参照外語維基百科相應條目来扩充, 2017年2月4日, 若您熟悉来源语言和主题, 请协助参考外语维基百科扩充条目, 请勿直接提交机械翻译, 也不要翻译不可靠, 低品质内容, 依版权协议, 译文需在编辑摘要注明来源, 或于讨论页顶部标记, href, template, translated, page, html, title, template, translated, page, translated, page, 标签, 此條目目前正依照其他维基百科上的内容进行翻译, 2018年6月14日. 此條目可参照外語維基百科相應條目来扩充 2017年2月4日 若您熟悉来源语言和主题 请协助参考外语维基百科扩充条目 请勿直接提交机械翻译 也不要翻译不可靠 低品质内容 依版权协议 译文需在编辑摘要注明来源 或于讨论页顶部标记 a href Template Translated page html title Template Translated page Translated page a 标签 此條目目前正依照其他维基百科上的内容进行翻译 2018年6月14日 如果您擅长翻译 並清楚本條目的領域 欢迎协助翻譯 改善或校对本條目 此外 长期闲置 未翻譯或影響閱讀的内容可能会被移除 在计算网络中 一个节点的激活函数定义了该节点在给定的输入或输入的集合下的输出 标准的计算机芯片电路可以看作是根据输入得到开 1 或关 0 输出的數位電路激活函数 这与神经网络中的线性感知机的行为类似 然而 只有非線性激活函数才允許這種網絡僅使用少量節點來計算非平凡問題 在人工神經網絡中 這個功能也被稱為傳遞函數 目录 1 单变量输入激活函數 2 多变量输入激活函数 3 參見 4 參考資料单变量输入激活函數 编辑名稱 函數圖形 方程式 導數 區間 连续性 1 單調 一阶导数单调 原点近似恒等恆等函數 nbsp f x x displaystyle f x x nbsp f x 1 displaystyle f x 1 nbsp displaystyle infty infty nbsp C displaystyle C infty nbsp 是 是 是單位階躍函數 nbsp f x 0 for x lt 0 1 for x 0 displaystyle f x begin cases 0 amp text for x lt 0 1 amp text for x geq 0 end cases nbsp f x 0 for x 0 不 存 在 for x 0 displaystyle f x begin cases 0 amp text for x neq 0 text 不 存 在 amp text for x 0 end cases nbsp 0 1 displaystyle 0 1 nbsp C 1 displaystyle C 1 nbsp 是 否 否邏輯函數 S函數的一种 nbsp f x s x 1 1 e x displaystyle f x sigma x frac 1 1 e x nbsp 2 f x f x 1 f x displaystyle f x f x 1 f x nbsp 0 1 displaystyle 0 1 nbsp C displaystyle C infty nbsp 是 否 否雙曲正切函數 nbsp f x tanh x e x e x e x e x displaystyle f x tanh x frac e x e x e x e x nbsp f x 1 f x 2 displaystyle f x 1 f x 2 nbsp 1 1 displaystyle 1 1 nbsp C displaystyle C infty nbsp 是 否 是反正切函數 nbsp f x tan 1 x displaystyle f x tan 1 x nbsp f x 1 x 2 1 displaystyle f x frac 1 x 2 1 nbsp p 2 p 2 displaystyle left frac pi 2 frac pi 2 right nbsp C displaystyle C infty nbsp 是 否 是Softsign 函數 1 2 nbsp f x x 1 x displaystyle f x frac x 1 x nbsp f x 1 1 x 2 displaystyle f x frac 1 1 x 2 nbsp 1 1 displaystyle 1 1 nbsp C 1 displaystyle C 1 nbsp 是 否 是反平方根函數 ISRU 3 nbsp f x x 1 a x 2 displaystyle f x frac x sqrt 1 alpha x 2 nbsp f x 1 1 a x 2 3 displaystyle f x left frac 1 sqrt 1 alpha x 2 right 3 nbsp 1 a 1 a displaystyle left frac 1 sqrt alpha frac 1 sqrt alpha right nbsp C displaystyle C infty nbsp 是 否 是線性整流函數 ReLU nbsp f x 0 for x lt 0 x for x 0 displaystyle f x begin cases 0 amp text for x lt 0 x amp text for x geq 0 end cases nbsp f x 0 for x lt 0 1 for x 0 displaystyle f x begin cases 0 amp text for x lt 0 1 amp text for x geq 0 end cases nbsp 0 displaystyle 0 infty nbsp C 0 displaystyle C 0 nbsp 是 是 否帶泄露線性整流函數 Leaky ReLU nbsp f x 0 01 x for x lt 0 x for x 0 displaystyle f x begin cases 0 01x amp text for x lt 0 x amp text for x geq 0 end cases nbsp f x 0 01 for x lt 0 1 for x 0 displaystyle f x begin cases 0 01 amp text for x lt 0 1 amp text for x geq 0 end cases nbsp displaystyle infty infty nbsp C 0 displaystyle C 0 nbsp 是 是 否參數化線性整流函數 PReLU 4 nbsp f a x a x for x lt 0 x for x 0 displaystyle f alpha x begin cases alpha x amp text for x lt 0 x amp text for x geq 0 end cases nbsp f a x a for x lt 0 1 for x 0 displaystyle f alpha x begin cases alpha amp text for x lt 0 1 amp text for x geq 0 end cases nbsp displaystyle infty infty nbsp C 0 displaystyle C 0 nbsp Yes iff a 0 displaystyle alpha geq 0 nbsp 是 Yes iff a 1 displaystyle alpha 1 nbsp 帶泄露隨機線性整流函數 RReLU 5 nbsp f a x a x for x lt 0 x for x 0 displaystyle f alpha x begin cases alpha x amp text for x lt 0 x amp text for x geq 0 end cases nbsp 3 f a x a for x lt 0 1 for x 0 displaystyle f alpha x begin cases alpha amp text for x lt 0 1 amp text for x geq 0 end cases nbsp displaystyle infty infty nbsp C 0 displaystyle C 0 nbsp 是 是 否指數線性函數 ELU 6 nbsp f a x a e x 1 for x lt 0 x for x 0 displaystyle f alpha x begin cases alpha e x 1 amp text for x lt 0 x amp text for x geq 0 end cases nbsp f a x f a x a for x lt 0 1 for x 0 displaystyle f alpha x begin cases f alpha x alpha amp text for x lt 0 1 amp text for x geq 0 end cases nbsp a displaystyle alpha infty nbsp C 1 when a 1 C 0 otherwise displaystyle begin cases C 1 amp text when alpha 1 C 0 amp text otherwise end cases nbsp Yes iff a 0 displaystyle alpha geq 0 nbsp Yes iff 0 a 1 displaystyle 0 leq alpha leq 1 nbsp Yes iff a 1 displaystyle alpha 1 nbsp 擴展指數線性函數 SELU 7 f a x l a e x 1 for x lt 0 x for x 0 displaystyle f alpha x lambda begin cases alpha e x 1 amp text for x lt 0 x amp text for x geq 0 end cases nbsp with l 1 0507 displaystyle lambda 1 0507 nbsp and a 1 67326 displaystyle alpha 1 67326 nbsp f a x l a e x for x lt 0 1 for x 0 displaystyle f alpha x lambda begin cases alpha e x amp text for x lt 0 1 amp text for x geq 0 end cases nbsp l a displaystyle lambda alpha infty nbsp C 0 displaystyle C 0 nbsp 是 否 否S 型線性整流激活函數 SReLU 8 f t l a l t r a r x t l a l x t l for x t l x for t l lt x lt t r t r a r x t r for x t r displaystyle f t l a l t r a r x begin cases t l a l x t l amp text for x leq t l x amp text for t l lt x lt t r t r a r x t r amp text for x geq t r end cases nbsp t l a l t r a r displaystyle t l a l t r a r nbsp are parameters f t l a l t r a r x a l for x t l 1 for t l lt x lt t r a r for x t r displaystyle f t l a l t r a r x begin cases a l amp text for x leq t l 1 amp text for t l lt x lt t r a r amp text for x geq t r end cases nbsp displaystyle infty infty nbsp C 0 displaystyle C 0 nbsp 否 否 否反平方根線性函數 ISRLU 3 nbsp f x x 1 a x 2 for x lt 0 x for x 0 displaystyle f x begin cases frac x sqrt 1 alpha x 2 amp text for x lt 0 x amp text for x geq 0 end cases nbsp f x 1 1 a x 2 3 for x lt 0 1 for x 0 displaystyle f x begin cases left frac 1 sqrt 1 alpha x 2 right 3 amp text for x lt 0 1 amp text for x geq 0 end cases nbsp 1 a displaystyle left frac 1 sqrt alpha infty right nbsp C 2 displaystyle C 2 nbsp 是 是 是自適應分段線性函數 APL 9 f x max 0 x s 1 S a i s max 0 x b i s displaystyle f x max 0 x sum s 1 S a i s max 0 x b i s nbsp f x H x s 1 S a i s H x b i s displaystyle f x H x sum s 1 S a i s H x b i s nbsp 4 displaystyle infty infty nbsp C 0 displaystyle C 0 nbsp 否 否 否SoftPlus 函數 10 nbsp f x ln 1 e x displaystyle f x ln 1 e x nbsp f x 1 1 e x displaystyle f x frac 1 1 e x nbsp 0 displaystyle 0 infty nbsp C displaystyle C infty nbsp 是 是 否彎曲恆等函數 nbsp f x x 2 1 1 2 x displaystyle f x frac sqrt x 2 1 1 2 x nbsp f x x 2 x 2 1 1 displaystyle f x frac x 2 sqrt x 2 1 1 nbsp displaystyle infty infty nbsp C displaystyle C infty nbsp 是 是 是S 型线性加权函数 SiLU 11 也被稱為Swish 12 f x x s x displaystyle f x x cdot sigma x nbsp 5 f x f x s x 1 f x displaystyle f x f x sigma x 1 f x nbsp 6 0 28 displaystyle approx 0 28 infty nbsp C displaystyle C infty nbsp 否 否 否软指数函數 13 nbsp f a x ln 1 a x a a for a lt 0 x for a 0 e a x 1 a a for a gt 0 displaystyle f alpha x begin cases frac ln 1 alpha x alpha alpha amp text for alpha lt 0 x amp text for alpha 0 frac e alpha x 1 alpha alpha amp text for alpha gt 0 end cases nbsp f a x 1 1 a a x for a lt 0 e a x for a 0 displaystyle f alpha x begin cases frac 1 1 alpha alpha x amp text for alpha lt 0 e alpha x amp text for alpha geq 0 end cases nbsp displaystyle infty infty nbsp C displaystyle C infty nbsp 是 是 Yes iff a 0 displaystyle alpha 0 nbsp 正弦函數 nbsp f x sin x displaystyle f x sin x nbsp f x cos x displaystyle f x cos x nbsp 1 1 displaystyle 1 1 nbsp C displaystyle C infty nbsp 否 否 是Sinc 函數 nbsp f x 1 for x 0 sin x x for x 0 displaystyle f x begin cases 1 amp text for x 0 frac sin x x amp text for x neq 0 end cases nbsp f x 0 for x 0 cos x x sin x x 2 for x 0 displaystyle f x begin cases 0 amp text for x 0 frac cos x x frac sin x x 2 amp text for x neq 0 end cases nbsp 0 217234 1 displaystyle approx 0 217234 1 nbsp C displaystyle C infty nbsp 否 否 否高斯函數 nbsp f x e x 2 displaystyle f x e x 2 nbsp f x 2 x e x 2 displaystyle f x 2xe x 2 nbsp 0 1 displaystyle 0 1 nbsp C displaystyle C infty nbsp 否 否 否说明 若一函数是连续的 则称其为C 0 displaystyle C 0 nbsp 函数 若一函数n displaystyle n nbsp 阶可导 并且其n displaystyle n nbsp 阶导函数连续 则为C n displaystyle C n nbsp 函数 n 1 displaystyle n geq 1 nbsp 若一函数对于所有n displaystyle n nbsp 都属于C n displaystyle C n nbsp 函数 则称其为C displaystyle C infty nbsp 函数 也称光滑函数 此處H 是單位階躍函數 a 是在訓練時間從均勻分佈中抽取的隨機變量 並且在測試時間固定為分佈的期望值 此處s displaystyle sigma nbsp 是邏輯函數 多变量输入激活函数 编辑名稱 方程式 導數 區間 光滑性Softmax函數 f i x e x i j 1 J e x j displaystyle f i vec x frac e x i sum j 1 J e x j nbsp for i 1 J f i x x j f i x d i j f j x displaystyle frac partial f i vec x partial x j f i vec x delta ij f j vec x nbsp 7 0 1 displaystyle 0 1 nbsp C displaystyle C infty nbsp Maxout函數 14 f x max i x i displaystyle f vec x max i x i nbsp f x j 1 for j argmax i x i 0 for j argmax i x i displaystyle frac partial f partial x j begin cases 1 amp text for j underset i operatorname argmax x i 0 amp text for j neq underset i operatorname argmax x i end cases nbsp displaystyle infty infty nbsp C 0 displaystyle C 0 nbsp 说明 此處d 是克羅內克d函數 參見 编辑邏輯函數 線性整流函數 Softmax函數 人工神經網路 深度學習參考資料 编辑 Bergstra James Desjardins Guillaume Lamblin Pascal Bengio Yoshua Quadratic polynomials learn better image features Technical Report 1337 Departement d Informatique et de Recherche Operationnelle Universite de Montreal 2009 原始内容存档于2018 09 25 Glorot Xavier Bengio Yoshua Understanding the difficulty of training deep feedforward neural networks PDF International Conference on Artificial Intelligence and Statistics AISTATS 10 Society for Artificial Intelligence and Statistics 2010 原始内容存档 PDF 于2017 04 01 3 0 3 1 Carlile Brad Delamarter Guy Kinney Paul Marti Akiko Whitney Brian Improving Deep Learning by Inverse Square Root Linear Units ISRLUs 2017 11 09 arXiv 1710 09967 nbsp cs LG He Kaiming Zhang Xiangyu Ren Shaoqing Sun Jian Delving Deep into Rectifiers Surpassing Human Level Performance on ImageNet Classification 2015 02 06 arXiv 1502 01852 nbsp cs CV Xu Bing Wang Naiyan Chen Tianqi Li Mu Empirical Evaluation of Rectified Activations in Convolutional Network 2015 05 04 arXiv 1505 00853 nbsp cs LG Clevert Djork Arne Unterthiner Thomas Hochreiter Sepp Fast and Accurate Deep Network Learning by Exponential Linear Units ELUs 2015 11 23 arXiv 1511 07289 nbsp cs LG Klambauer Gunter Unterthiner Thomas Mayr Andreas Hochreiter Sepp Self Normalizing Neural Networks 2017 06 08 arXiv 1706 02515 nbsp cs LG Jin Xiaojie Xu Chunyan Feng Jiashi Wei Yunchao Xiong Junjun Yan Shuicheng Deep Learning with S shaped Rectified Linear Activation Units 2015 12 22 arXiv 1512 07030 nbsp cs CV Forest Agostinelli Matthew Hoffman Peter Sadowski Pierre Baldi Learning Activation Functions to Improve Deep Neural Networks 21 Dec 2014 arXiv 1412 6830 nbsp cs NE Glorot Xavier Bordes Antoine Bengio Yoshua Deep sparse rectifier neural networks PDF International Conference on Artificial Intelligence and Statistics 2011 原始内容存档 PDF 于2018 06 19 Sigmoid Weighted Linear Units for Neural Network Function Approximation in Reinforcement Learning 2018 06 13 原始内容存档于2018 06 13 Searching for Activation Functions 2018 06 13 原始内容存档于2018 06 13 Godfrey Luke B Gashler Michael S A continuum among logarithmic linear and exponential functions and its potential to improve generalization in neural networks 7th International Joint Conference on Knowledge Discovery Knowledge Engineering and Knowledge Management KDIR 2016 02 03 1602 481 486 Bibcode 2016arXiv160201321G arXiv 1602 01321 nbsp Goodfellow Ian J Warde Farley David Mirza Mehdi Courville Aaron Bengio Yoshua Maxout Networks JMLR WCP 2013 02 18 28 3 1319 1327 Bibcode 2013arXiv1302 4389G arXiv 1302 4389 nbsp 取自 https zh wikipedia org w index php title 激活函数 amp oldid 77555869, 维基百科,wiki,书籍,书籍,图书馆,

文章

,阅读,下载,免费,免费下载,mp3,视频,mp4,3gp, jpg,jpeg,gif,png,图片,音乐,歌曲,电影,书籍,游戏,游戏。