期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于MNIST数据集的激活函数比较研究
1
作者
张贯航
《软件》
2023年第9期165-168,共4页
本文基于卷积神经网络(CNN),在经典手写数字识别MNIST数据集上对比了四种常用激活函数:Sigmoid、Tanh、ReLU和Re LU6。通过详细阐述激活函数的基本原理并进行实验分析,可以发现,ReLU6函数在现有神经网络算法中表现出较好的性能,具有较...
本文基于卷积神经网络(CNN),在经典手写数字识别MNIST数据集上对比了四种常用激活函数:Sigmoid、Tanh、ReLU和Re LU6。通过详细阐述激活函数的基本原理并进行实验分析,可以发现,ReLU6函数在现有神经网络算法中表现出较好的性能,具有较高的准确性和稳定性。然而,激活函数的选择应根据不同任务和数据集特点进行调整,并关注新型激活函数的研究和应用,以进一步提高神经网络的性能、泛化能力和计算效率。本文旨在为研究者和从业者提供关于激活函数选择的参考和启示。
展开更多
关键词
MNIST数据集
激活函数比较
神经网络
机器学习
下载PDF
职称材料
题名
基于MNIST数据集的激活函数比较研究
1
作者
张贯航
机构
中南大学
出处
《软件》
2023年第9期165-168,共4页
文摘
本文基于卷积神经网络(CNN),在经典手写数字识别MNIST数据集上对比了四种常用激活函数:Sigmoid、Tanh、ReLU和Re LU6。通过详细阐述激活函数的基本原理并进行实验分析,可以发现,ReLU6函数在现有神经网络算法中表现出较好的性能,具有较高的准确性和稳定性。然而,激活函数的选择应根据不同任务和数据集特点进行调整,并关注新型激活函数的研究和应用,以进一步提高神经网络的性能、泛化能力和计算效率。本文旨在为研究者和从业者提供关于激活函数选择的参考和启示。
关键词
MNIST数据集
激活函数比较
神经网络
机器学习
Keywords
MNIST dataset
activation function comparison
neural networks
machine learning
分类号
TP391.41 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于MNIST数据集的激活函数比较研究
张贯航
《软件》
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部