期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于λ-递增函数的样本学习
1
作者
李晶晶
田大钢
《数学理论与应用》
2016年第4期92-105,共14页
在理论研究和实际应用中,神经网络的结构问题一直是个难点.本文利用Vugar E.Ismailov近期的研究成果,讨论了神经网络对样本点的学习问题.结果表明,利用λ-严格递增函数,只需两个隐层节点,就可以学会任意给定的样本集.同时讨论了在隐层...
在理论研究和实际应用中,神经网络的结构问题一直是个难点.本文利用Vugar E.Ismailov近期的研究成果,讨论了神经网络对样本点的学习问题.结果表明,利用λ-严格递增函数,只需两个隐层节点,就可以学会任意给定的样本集.同时讨论了在隐层节点中使用通常的Sigmoid函数与使用λ-严格递增函数作为活化函数的差别.
展开更多
关键词
神经网络
网络结构
λ-递增函数
SIGMOID
函数
下载PDF
职称材料
题名
基于λ-递增函数的样本学习
1
作者
李晶晶
田大钢
机构
上海理工大学管理学院
出处
《数学理论与应用》
2016年第4期92-105,共14页
文摘
在理论研究和实际应用中,神经网络的结构问题一直是个难点.本文利用Vugar E.Ismailov近期的研究成果,讨论了神经网络对样本点的学习问题.结果表明,利用λ-严格递增函数,只需两个隐层节点,就可以学会任意给定的样本集.同时讨论了在隐层节点中使用通常的Sigmoid函数与使用λ-严格递增函数作为活化函数的差别.
关键词
神经网络
网络结构
λ-递增函数
SIGMOID
函数
Keywords
Neural network Neural network structure
λ-
increasing function Sigmoid function
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于λ-递增函数的样本学习
李晶晶
田大钢
《数学理论与应用》
2016
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部