期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
遗忘神经网络模型及其BP算法
被引量:
4
1
作者
叶强
卢涛
李一军
《计算机工程》
CAS
CSCD
北大核心
2003年第20期135-136,184,共3页
为解决跨时间数据训练神经网络时的数据选择问题,提出在神经网络的训练模型中引入遗忘系数,从而建立了一种改进的前馈神经网络模型——遗忘神经网络模型。介绍了该模型的基本原理,并给出了其BP算法。
关键词
数据仓库
前馈
神经网络
遗忘
系数
遗忘神经网络
BP算法
模型
下载PDF
职称材料
基于遗忘机制的神经网络非线性系统辨识
2
作者
刘妞
罗广文
+1 位作者
廖嘉嘉
张琪
《东莞理工学院学报》
2016年第3期54-57,共4页
神经网络算法对于系统辨识具有很好的效果,但是对于大数据来说,每一个数据是否都具有平等的等效性这个问题上处理不妥。随着时间推移数据的可靠性越高,采用基于遗忘机制的神经网络非线性系统辨识方法,首先分析了遗忘神经网络的适用条件...
神经网络算法对于系统辨识具有很好的效果,但是对于大数据来说,每一个数据是否都具有平等的等效性这个问题上处理不妥。随着时间推移数据的可靠性越高,采用基于遗忘机制的神经网络非线性系统辨识方法,首先分析了遗忘神经网络的适用条件并对遗忘神经网络进行了理论分析与仿真,其次发现遗忘神经网络在准度和进度上面并不会有很大的误差,所以结论表明遗忘神经网络对于数据的处理具有较强的时效性和跟踪性。
展开更多
关键词
神经网络
非线性系统
辨识
遗忘神经网络
下载PDF
职称材料
题名
遗忘神经网络模型及其BP算法
被引量:
4
1
作者
叶强
卢涛
李一军
机构
哈尔滨工业大学管理学院
出处
《计算机工程》
CAS
CSCD
北大核心
2003年第20期135-136,184,共3页
基金
国家"863"计划资助项目(2001AA136010)
家自然科学基金资助项目(70171013)
文摘
为解决跨时间数据训练神经网络时的数据选择问题,提出在神经网络的训练模型中引入遗忘系数,从而建立了一种改进的前馈神经网络模型——遗忘神经网络模型。介绍了该模型的基本原理,并给出了其BP算法。
关键词
数据仓库
前馈
神经网络
遗忘
系数
遗忘神经网络
BP算法
模型
Keywords
Data warehouse
Feedforward neural network
Forgetting coefficient
Forgetting artificial neural network
BP algorithm
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
基于遗忘机制的神经网络非线性系统辨识
2
作者
刘妞
罗广文
廖嘉嘉
张琪
机构
广西科技大学电气与信息工程学院
出处
《东莞理工学院学报》
2016年第3期54-57,共4页
文摘
神经网络算法对于系统辨识具有很好的效果,但是对于大数据来说,每一个数据是否都具有平等的等效性这个问题上处理不妥。随着时间推移数据的可靠性越高,采用基于遗忘机制的神经网络非线性系统辨识方法,首先分析了遗忘神经网络的适用条件并对遗忘神经网络进行了理论分析与仿真,其次发现遗忘神经网络在准度和进度上面并不会有很大的误差,所以结论表明遗忘神经网络对于数据的处理具有较强的时效性和跟踪性。
关键词
神经网络
非线性系统
辨识
遗忘神经网络
Keywords
neural networks
nonlinear systems
identification
neural network with forgetting
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
遗忘神经网络模型及其BP算法
叶强
卢涛
李一军
《计算机工程》
CAS
CSCD
北大核心
2003
4
下载PDF
职称材料
2
基于遗忘机制的神经网络非线性系统辨识
刘妞
罗广文
廖嘉嘉
张琪
《东莞理工学院学报》
2016
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部