期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
改进卷积神经网络模型设计方法
被引量:
16
1
作者
张涛
杨剑
+1 位作者
宋文爱
郭雁蓉
《计算机工程与设计》
北大核心
2019年第7期1885-1890,共6页
针对现有卷积神经网络模型参数量大、训练耗费时间的问题,提出一种网络串联和并联共用的方法,使用较小的卷积核和较多的非线性激活减少参数量的同时增加网络特征学习能力,提出尺度归一化池化层取代全连接层,避免全连接层参数过多容易导...
针对现有卷积神经网络模型参数量大、训练耗费时间的问题,提出一种网络串联和并联共用的方法,使用较小的卷积核和较多的非线性激活减少参数量的同时增加网络特征学习能力,提出尺度归一化池化层取代全连接层,避免全连接层参数过多容易导致过拟合的问题,改进后的模型支持训练任意尺寸的图片。实验结果表明,提出方法减少了大量的参数和训练消耗的时间,有效提升了算法的效率。
展开更多
关键词
卷积神经网络
卷积核
非线性激活
尺度归一化池化
图像分类
下载PDF
职称材料
题名
改进卷积神经网络模型设计方法
被引量:
16
1
作者
张涛
杨剑
宋文爱
郭雁蓉
机构
中北大学软件学院
出处
《计算机工程与设计》
北大核心
2019年第7期1885-1890,共6页
基金
山西省回国留学人员科研基金项目(2014-053)
文摘
针对现有卷积神经网络模型参数量大、训练耗费时间的问题,提出一种网络串联和并联共用的方法,使用较小的卷积核和较多的非线性激活减少参数量的同时增加网络特征学习能力,提出尺度归一化池化层取代全连接层,避免全连接层参数过多容易导致过拟合的问题,改进后的模型支持训练任意尺寸的图片。实验结果表明,提出方法减少了大量的参数和训练消耗的时间,有效提升了算法的效率。
关键词
卷积神经网络
卷积核
非线性激活
尺度归一化池化
图像分类
Keywords
convolution neural network
convolution kernel
nonlinear activation
standardization of pool size
image classification
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
改进卷积神经网络模型设计方法
张涛
杨剑
宋文爱
郭雁蓉
《计算机工程与设计》
北大核心
2019
16
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部