期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Dopout与ADAM优化器的改进CNN算法
被引量:
111
1
作者
杨观赐
杨静
+1 位作者
李少波
胡建军
《华中科技大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2018年第7期122-127,共6页
在分析当前卷积神经网络模型特征提取过程中存在问题的基础上,提出了基于Dropout与ADAM优化器的改进卷积神经网络算法(MCNN-DA).设计了二次卷积神经网络结构,通过引入基于Re LU的激活函数以避免梯度消失问题,提高收敛速度;通过在全连...
在分析当前卷积神经网络模型特征提取过程中存在问题的基础上,提出了基于Dropout与ADAM优化器的改进卷积神经网络算法(MCNN-DA).设计了二次卷积神经网络结构,通过引入基于Re LU的激活函数以避免梯度消失问题,提高收敛速度;通过在全连接层和输出层之间加入Dropout层解决过拟合问题,并设计了ADAM优化器的最小化交叉熵.以MNIST和HCL2000数据集为测试数据,测试分析了ADAM优化器的不同学习率对算法性能的影响,得出当学习率处于0.04~0.08时,算法具有较好的识别性能.与三种算法的实验比较结果表明:本文算法的平均识别率最高可达99.21%;对于HCL2000测试集,本文算法的平均识别率比基于支持向量机优化的极速学习机算法提高了3.98%.
展开更多
关键词
卷积神经网络
激活函数
梯度
消失
ADAM优化器
梯度饱和问题
原文传递
题名
基于Dopout与ADAM优化器的改进CNN算法
被引量:
111
1
作者
杨观赐
杨静
李少波
胡建军
机构
贵州大学现代制造技术教育部重点实验室
美国南卡罗莱纳州大学计算机科学与工程系
出处
《华中科技大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2018年第7期122-127,共6页
基金
国家自然科学基金资助项目(61640209)
贵州省科技计划资助项目(黔科合人字(2015)13号,黔科合LH字[2016]7433号)
贵州省科技厅基础平台计划资助项目(黔科合平台人才[2018]5702)
文摘
在分析当前卷积神经网络模型特征提取过程中存在问题的基础上,提出了基于Dropout与ADAM优化器的改进卷积神经网络算法(MCNN-DA).设计了二次卷积神经网络结构,通过引入基于Re LU的激活函数以避免梯度消失问题,提高收敛速度;通过在全连接层和输出层之间加入Dropout层解决过拟合问题,并设计了ADAM优化器的最小化交叉熵.以MNIST和HCL2000数据集为测试数据,测试分析了ADAM优化器的不同学习率对算法性能的影响,得出当学习率处于0.04~0.08时,算法具有较好的识别性能.与三种算法的实验比较结果表明:本文算法的平均识别率最高可达99.21%;对于HCL2000测试集,本文算法的平均识别率比基于支持向量机优化的极速学习机算法提高了3.98%.
关键词
卷积神经网络
激活函数
梯度
消失
ADAM优化器
梯度饱和问题
Keywords
convolution neural network
activate function
gradient disappearence
ADAM optimizer
vanishing gradient problem
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于Dopout与ADAM优化器的改进CNN算法
杨观赐
杨静
李少波
胡建军
《华中科技大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2018
111
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部