期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
激活函数LeafSpring的构建及多数据集对比研究
被引量:
3
1
作者
郜天柱
《信息与控制》
CSCD
北大核心
2020年第3期306-314,322,共10页
针对神经网络中ReLU激活函数存在返回值非负及神经元未激活等问题,提出了一种全新的类ReLU激活函数——LeafSpring. LeafSpring既继承了ReLU的优势,又可以返回负值,通用性更强. LeafSpring函数的推导及函数性质也会被讨论.该激活函数还...
针对神经网络中ReLU激活函数存在返回值非负及神经元未激活等问题,提出了一种全新的类ReLU激活函数——LeafSpring. LeafSpring既继承了ReLU的优势,又可以返回负值,通用性更强. LeafSpring函数的推导及函数性质也会被讨论.该激活函数还引入了刚度系数k,可以通过训练主动调节相邻两层的权重系数.为了减少计算量, LeafSpring可以在一定情况下简化为ReLU或Softplus.为了展现LeafSpring激活函数的性能,还将其与ReLU、 Softplus及Sigmoid在4种不同类型的数据集上进行拟合精度对比.对比结果表明, LeafSpring在不同的数据集上均能兼顾拟合精度和收敛速度且在小网格规模可以更快、更准确地拟合复杂非线性函数.
展开更多
关键词
激活函数
神经网络
线性整流函数(ReLU)
leafspring
原文传递
题名
激活函数LeafSpring的构建及多数据集对比研究
被引量:
3
1
作者
郜天柱
机构
中国科学院沈阳自动化研究所机器人学国家重点实验室
中国科学院机器人与智能制造创新研究院
中国科学院大学
出处
《信息与控制》
CSCD
北大核心
2020年第3期306-314,322,共10页
基金
中国科学院战略高技术创新基金资助项目(GQRC-19-16)。
文摘
针对神经网络中ReLU激活函数存在返回值非负及神经元未激活等问题,提出了一种全新的类ReLU激活函数——LeafSpring. LeafSpring既继承了ReLU的优势,又可以返回负值,通用性更强. LeafSpring函数的推导及函数性质也会被讨论.该激活函数还引入了刚度系数k,可以通过训练主动调节相邻两层的权重系数.为了减少计算量, LeafSpring可以在一定情况下简化为ReLU或Softplus.为了展现LeafSpring激活函数的性能,还将其与ReLU、 Softplus及Sigmoid在4种不同类型的数据集上进行拟合精度对比.对比结果表明, LeafSpring在不同的数据集上均能兼顾拟合精度和收敛速度且在小网格规模可以更快、更准确地拟合复杂非线性函数.
关键词
激活函数
神经网络
线性整流函数(ReLU)
leafspring
Keywords
activation function
neural network
rectified linear unit(Re LU)
Leaf Spring
分类号
O175.1 [理学—基础数学]
原文传递
题名
作者
出处
发文年
被引量
操作
1
激活函数LeafSpring的构建及多数据集对比研究
郜天柱
《信息与控制》
CSCD
北大核心
2020
3
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部