期刊文献+
共找到9篇文章
< 1 >
每页显示 20 50 100
基于改进粒子群算法的小波神经网络分类器 被引量:23
1
作者 张伟 师奕兵 +1 位作者 周龙甫 卢涛 《仪器仪表学报》 EI CAS CSCD 北大核心 2010年第10期2203-2209,共7页
针对传统BP-WNN和基本PSO-WNN算法收敛速度慢和泛化性能低的缺陷,在应用李雅普诺夫理论分析得到单个粒子稳定收敛的参数取值条件基础上,提出一种粒子群改进算法,并利用该算法来训练小波神经网络权值,以此构建一种高效的粒子群小波神经... 针对传统BP-WNN和基本PSO-WNN算法收敛速度慢和泛化性能低的缺陷,在应用李雅普诺夫理论分析得到单个粒子稳定收敛的参数取值条件基础上,提出一种粒子群改进算法,并利用该算法来训练小波神经网络权值,以此构建一种高效的粒子群小波神经网络分类器。通过Iris标准分类数据集进行测试,结果表明所提出的改进算法与BP-WNN,PSO-WNN等经典算法相比,网络更易于全局收敛,迭代次数少、函数逼近误差小、分类精度高。将该分类器应用于非线性辨识和固井质量评价中,均取得了不错的效果,表明该分类器泛化能力强,具有良好的使用价值和应用前景。 展开更多
关键词 收敛速度 粒子群算法 小波神经网络 分类器 泛化
下载PDF
基于神经网络的常微分方程数值计算方法 被引量:3
2
作者 徐理英 朱树人 《湖南师范大学自然科学学报》 CAS 北大核心 2007年第3期34-37,54,共5页
科学与工程应用中常用微分方程来建模,提出了一种基于余弦基神经网格的计算微分方程的新方法,其基本思想是以神经网络的输出来近似初值问题中的解析解.为保证算法的收敛性,提出并证明了神经网络算法的收敛性定理,为神经网络学习率的选... 科学与工程应用中常用微分方程来建模,提出了一种基于余弦基神经网格的计算微分方程的新方法,其基本思想是以神经网络的输出来近似初值问题中的解析解.为保证算法的收敛性,提出并证明了神经网络算法的收敛性定理,为神经网络学习率的选择提供了依据.通过实例证明了该算法的有效性. 展开更多
关键词 神经网络 收敛性 常微分方程 初值问题
下载PDF
基于蚁群BP神经网络算法的六维力传感器解耦研究 被引量:3
3
作者 张家敏 许德章 《轻工机械》 CAS 2016年第1期1-4,13,共5页
针对传统BP神经网络在六维力传感器解耦训练过程中,由于其初始参数的选取不确定性导致神经网络出现震荡、收敛速度缓慢和陷入局部极值等问题,提出一种基于蚁群BP神经网络算法并应用于六维力传感器解耦研究。该算法利用蚁群算法在种群寻... 针对传统BP神经网络在六维力传感器解耦训练过程中,由于其初始参数的选取不确定性导致神经网络出现震荡、收敛速度缓慢和陷入局部极值等问题,提出一种基于蚁群BP神经网络算法并应用于六维力传感器解耦研究。该算法利用蚁群算法在种群寻优方面的优越性,通过局部和全局信息素更新相结合的方式更新信息素,提高蚁群算法搜索的效率,为BP神经网络提供一组最优的训练初始参数,网络收敛速度得到很大地提高,同时局部极值和震荡等缺点也有一定的改善。实验仿真结果表明,在六维力传感器神经网络模型训练过程中,达到同样的目标误差,基于蚁群BP神经网络算法的迭代次数N比传统算法少50%,运行时间T快60%。这说明蚁群BP神经网络算法在六维力传感器解耦研究中有着很好的应用效果。 展开更多
关键词 六维力传感器 蚁群BP神经网络算法 初始参数 解耦 收敛速度
下载PDF
小波神经网络初始值的选择 被引量:3
4
作者 员世芬 张金梅 田建艳 《电脑开发与应用》 2005年第2期37-38,41,共3页
小波神经网络参数初始值影响着网络收敛速度的快慢,甚至关系到网络能否收敛。为了减少网络训练次数,提高收敛速度,提出了一种更简便易行的选择方法,通过将此方法的仿真结果与采用随机选取初始值的方法所得仿真结果进行对比,证明此方法... 小波神经网络参数初始值影响着网络收敛速度的快慢,甚至关系到网络能否收敛。为了减少网络训练次数,提高收敛速度,提出了一种更简便易行的选择方法,通过将此方法的仿真结果与采用随机选取初始值的方法所得仿真结果进行对比,证明此方法既可行又有效。 展开更多
关键词 小波神经网络 初始值 收敛速度 仿真研究
下载PDF
补偿模糊神经网络的改进及实例分析 被引量:7
5
作者 曾宪华 赖晓风 《四川师范学院学报(自然科学版)》 2002年第3期249-252,共4页
建立了一种改进的补偿模糊神经网络系统,使模糊系统较强的知识表达能力与神经网络强大的自学习能力优势互补.并提出了一种动态调整学习步长的机制,能够避免较大震荡现象的出现;同时加快了迭代速度,最后将该方法应用到预测我国第三产业... 建立了一种改进的补偿模糊神经网络系统,使模糊系统较强的知识表达能力与神经网络强大的自学习能力优势互补.并提出了一种动态调整学习步长的机制,能够避免较大震荡现象的出现;同时加快了迭代速度,最后将该方法应用到预测我国第三产业的产值比重中,结果较为满意;与常规神经网络相比,迭代速度和误差精度都有大大的提高;实践证明该方法值得进一步推广运用. 展开更多
关键词 实例分析 补偿模糊神经网络 动态学习步长 迭代速度 第三产业 产值比重 经济预测
下载PDF
基于非监督权值预学习加速网络的训练
6
作者 方斌 朱明星 《信号处理》 CSCD 2000年第B12期59-62,共4页
本文提出一种基于非监督学习的Oja规则和有监督学习的delta规则的快速学习算法.用改进后的结构和学习方法初始化前馈神经网络的权值;使该算法性能显著提高.最后本文通过仿真实例验证了该方法.
关键词 前馈神经网络 delta规划 学习算法 Oja规划
下载PDF
用改进的非监督学习方法加速前馈神经网络的训练
7
作者 方斌 朱明星 《微机发展》 2000年第3期1-3,共3页
本文对非监督学习方法和前馈神经网络的结构进行一些简单的改进。用改进后的结构和学习方法初始化前馈神经网络的权值 ,使前馈神经网络的训练速度和逼近精度显著提高。最后本文通过仿真实例验证了该方法。
关键词 前馈神经网络 非监督学习方法 BP算法
下载PDF
面向时变复数西尔维斯特方程的有限时间神经网络研究
8
作者 高畅 孔颖 《高技术通讯》 CAS 2022年第6期587-596,共10页
针对时变复数西尔维斯特方程的实时求解问题,提出了两种有限时间神经网络(FTNN)模型。该方案基于张神经网络(ZNN)在实数域中的动力学方法,设计面向复数域的神经动力学方程。针对动力学方程中非线性激励函数的数值计算问题,应用两种等价... 针对时变复数西尔维斯特方程的实时求解问题,提出了两种有限时间神经网络(FTNN)模型。该方案基于张神经网络(ZNN)在实数域中的动力学方法,设计面向复数域的神经动力学方程。针对动力学方程中非线性激励函数的数值计算问题,应用两种等价的处理方法。第一种方法是处理复数输入的实部与虚部,第二种方法是处理复数输入的模数。通过使用有限值激励函数加快FTNN模型的求解速度,进一步提高了模型的收敛速度和计算精度。实验结果表明,在求解时变复数西尔维斯特方程时,相比于传统的周期神经网络求解法,所提出的网络模型具有更好的收敛性和稳定性。 展开更多
关键词 时变复数西尔维斯特方程 有限时间神经网络(FTNN) 有限值激励函数 收敛速度 计算精度
下载PDF
提高神经网络收敛速度的一种赋初值算法研究 被引量:6
9
作者 候媛彬 《模式识别与人工智能》 EI CSCD 北大核心 2001年第4期385-389,共5页
本文针对用于复杂非线性辨识的连续激发函数的神经网络,提出一种根据被测对象非线性特性设计网络初值的算法,算例及分析表明,这种新赋初值算法不仅能使网络的收敛速度有一定提高,辨识误差有所下降,且可避免收敛于局部极小点。
关键词 连续激发函数 神经网络 收敛速度 赋初值算法
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部