期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
基于MNIST数据集的激活函数比较研究
1
作者 张贯航 《软件》 2023年第9期165-168,共4页
本文基于卷积神经网络(CNN),在经典手写数字识别MNIST数据集上对比了四种常用激活函数:Sigmoid、Tanh、ReLU和Re LU6。通过详细阐述激活函数的基本原理并进行实验分析,可以发现,ReLU6函数在现有神经网络算法中表现出较好的性能,具有较... 本文基于卷积神经网络(CNN),在经典手写数字识别MNIST数据集上对比了四种常用激活函数:Sigmoid、Tanh、ReLU和Re LU6。通过详细阐述激活函数的基本原理并进行实验分析,可以发现,ReLU6函数在现有神经网络算法中表现出较好的性能,具有较高的准确性和稳定性。然而,激活函数的选择应根据不同任务和数据集特点进行调整,并关注新型激活函数的研究和应用,以进一步提高神经网络的性能、泛化能力和计算效率。本文旨在为研究者和从业者提供关于激活函数选择的参考和启示。 展开更多
关键词 MNIST数据集 激活函数比较 神经网络 机器学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部