期刊文献+

ReLU激活函数优化研究 被引量:92

Research on optimization of ReLU activation function
下载PDF
导出
摘要 门控循环单元(GRU)是一种改进型的长短期记忆模型(LSTM)结构,有效改善了LSTM训练耗时的缺点。在GRU的基础上,对激活函数sigmoid,tanh,ReLU等性能进行了比较和研究,详细分析了几类激活函数的优缺点,提出了一种新的激活函数双曲正切线性单元(TLU)。实验证明:新的激活函数既能显著地加快深度神经网络的训练速度,又有效降低训练误差。 Gated recurrent unit( GRU) is an improved long short term memory model( LSTM) architecture,it is effective to improve training time-consuming features of LSTM. Performance of some activation functions such as sigmoid tanh,rectified linear units( ReLU) are compared and researched on the basis of GRU architecture and analyze their advantages and disadvantages in detail. Propose a novel activation function named tanh linear unit( TLU). The experiment shows that the new activation function can not only speed up training speed of deep neural networks,but also effectively reduce training error.
出处 《传感器与微系统》 CSCD 2018年第2期50-52,共3页 Transducer and Microsystem Technologies
基金 国家"863"计划资助项目(2012AA041701) 浙江省教育厅资助项目(Y201010035)
关键词 门控循环单元 神经网络 激活函数 双曲正切线性单元 gated recurrent unit(GRU) neutral network activation functions tanh linear unit(TLU)
  • 相关文献

参考文献1

二级参考文献7

共引文献7

同被引文献732

引证文献92

二级引证文献359

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部