期刊文献+
共找到111篇文章
< 1 2 6 >
每页显示 20 50 100
The Convergence of the Steepest Descent Algorithm for D.C.Optimization 被引量:1
1
作者 SONG Chun-ling XIA Zun-quan 《Chinese Quarterly Journal of Mathematics》 CSCD 北大核心 2007年第1期131-136,共6页
Some properties of a class of quasi-differentiable functions(the difference of two finite convex functions) are considered in this paper. And the convergence of the steepest descent algorithm for unconstrained and c... Some properties of a class of quasi-differentiable functions(the difference of two finite convex functions) are considered in this paper. And the convergence of the steepest descent algorithm for unconstrained and constrained quasi-differentiable programming is proved. 展开更多
关键词 nonsmooth optimization D. C. optimization upper semi-continuous lower semi-continuous steepest descent algorithm convergence
下载PDF
Global Convergence of an Extended Descent Algorithm without Line Search for Unconstrained Optimization
2
作者 Cuiling Chen Liling Luo +1 位作者 Caihong Han Yu Chen 《Journal of Applied Mathematics and Physics》 2018年第1期130-137,共8页
In this paper, we extend a descent algorithm without line search for solving unconstrained optimization problems. Under mild conditions, its global convergence is established. Further, we generalize the search directi... In this paper, we extend a descent algorithm without line search for solving unconstrained optimization problems. Under mild conditions, its global convergence is established. Further, we generalize the search direction to more general form, and also obtain the global convergence of corresponding algorithm. The numerical results illustrate that the new algorithm is effective. 展开更多
关键词 unconstrained optimization descent method Line SEARCH Global convergence
下载PDF
A New Descent Nonlinear Conjugate Gradient Method for Unconstrained Optimization
3
作者 Hao Fan Zhibin Zhu Anwa Zhou 《Applied Mathematics》 2011年第9期1119-1123,共5页
In this paper, a new nonlinear conjugate gradient method is proposed for large-scale unconstrained optimization. The sufficient descent property holds without any line searches. We use some steplength technique which ... In this paper, a new nonlinear conjugate gradient method is proposed for large-scale unconstrained optimization. The sufficient descent property holds without any line searches. We use some steplength technique which ensures the Zoutendijk condition to be held, this method is proved to be globally convergent. Finally, we improve it, and do further analysis. 展开更多
关键词 Large Scale unconstrained optimization CONJUGATE Gradient method SUFFICIENT descent Property Globally CONVERGENT
下载PDF
A New Nonlinear Conjugate Gradient Method for Unconstrained Optimization Problems 被引量:1
4
作者 LIU Jin-kui WANG Kai-rong +1 位作者 SONG Xiao-qian DU Xiang-lin 《Chinese Quarterly Journal of Mathematics》 CSCD 2010年第3期444-450,共7页
In this paper,an efficient conjugate gradient method is given to solve the general unconstrained optimization problems,which can guarantee the sufficient descent property and the global convergence with the strong Wol... In this paper,an efficient conjugate gradient method is given to solve the general unconstrained optimization problems,which can guarantee the sufficient descent property and the global convergence with the strong Wolfe line search conditions.Numerical results show that the new method is efficient and stationary by comparing with PRP+ method,so it can be widely used in scientific computation. 展开更多
关键词 unconstrained optimization conjugate gradient method strong Wolfe line search sufficient descent property global convergence
下载PDF
A Descent Gradient Method and Its Global Convergence
5
作者 LIU Jin-kui 《Chinese Quarterly Journal of Mathematics》 CSCD 2014年第1期142-150,共9页
Y Liu and C Storey(1992)proposed the famous LS conjugate gradient method which has good numerical results.However,the LS method has very weak convergence under the Wolfe-type line search.In this paper,we give a new de... Y Liu and C Storey(1992)proposed the famous LS conjugate gradient method which has good numerical results.However,the LS method has very weak convergence under the Wolfe-type line search.In this paper,we give a new descent gradient method based on the LS method.It can guarantee the sufficient descent property at each iteration and the global convergence under the strong Wolfe line search.Finally,we also present extensive preliminary numerical experiments to show the efficiency of the proposed method by comparing with the famous PRP^+method. 展开更多
关键词 unconstrained optimization conjugate gradient method strong Wolfe line search sufficient descent property global convergence
下载PDF
A modified three–term conjugate gradient method with sufficient descent property 被引量:1
6
作者 Saman Babaie–Kafaki 《Applied Mathematics(A Journal of Chinese Universities)》 SCIE CSCD 2015年第3期263-272,共10页
A hybridization of the three–term conjugate gradient method proposed by Zhang et al. and the nonlinear conjugate gradient method proposed by Polak and Ribi`ere, and Polyak is suggested. Based on an eigenvalue analysi... A hybridization of the three–term conjugate gradient method proposed by Zhang et al. and the nonlinear conjugate gradient method proposed by Polak and Ribi`ere, and Polyak is suggested. Based on an eigenvalue analysis, it is shown that search directions of the proposed method satisfy the sufficient descent condition, independent of the line search and the objective function convexity. Global convergence of the method is established under an Armijo–type line search condition. Numerical experiments show practical efficiency of the proposed method. 展开更多
关键词 unconstrained optimization conjugate gradient method EIGENVALUE sufficient descent condition global convergence
下载PDF
Global convergence of quasi-Newton methods for unconstrained optimization
7
作者 韩立兴 刘光辉 《Chinese Science Bulletin》 SCIE EI CAS 1996年第7期529-533,共5页
The convergence of quasi-Newton methods for unconstrained optimization has at-tracted much attention. Powell proved a global convergence result for the BFGS algorithmusing inexact linesearch which satisfies the Wolfe ... The convergence of quasi-Newton methods for unconstrained optimization has at-tracted much attention. Powell proved a global convergence result for the BFGS algorithmusing inexact linesearch which satisfies the Wolfe conditions. Byrd, Nocedal and Yuanextended this result to the convex Broyden class of quasi-Newton methods except the DFPmethod. However, the global convergence of the DFP method, the first quasi-Newtonmethod, using the same linesearch strategy, is still an open question (see ref. [2]). 展开更多
关键词 QUASI-NEWTON methods unconstrained optimization DFP algorithm global convergence.
原文传递
A NEW STEPSIZE FOR THE STEEPEST DESCENT METHOD 被引量:16
8
作者 Ya-xiang Yuan 《Journal of Computational Mathematics》 SCIE EI CSCD 2006年第2期149-156,共8页
The steepest descent method is the simplest gradient method for optimization. It is well known that exact line searches along each steepest descent direction may converge very slowly. An important result was given by ... The steepest descent method is the simplest gradient method for optimization. It is well known that exact line searches along each steepest descent direction may converge very slowly. An important result was given by Barzilar and Borwein, which is proved to be superlinearly convergent for convex quadratic in two dimensional space, and performs quite well for high dimensional problems. The BB method is not monotone, thus it is not easy to be generalized for general nonlinear functions unless certain non-monotone techniques being applied. Therefore, it is very desirable to find stepsize formulae which enable fast convergence and possess the monotone property. Such a stepsize αk for the steepest descent method is suggested in this paper. An algorithm with this new stepsize in even iterations and exact line search in odd iterations is proposed. Numerical results are presented, which confirm that the new method can find the exact solution within 3 iteration for two dimensional problems. The new method is very efficient for small scale problems. A modified version of the new method is also presented, where the new technique for selecting the stepsize is used after every two exact line searches. The modified algorithm is comparable to the Barzilar-Borwein method for large scale problems and better for small scale problems. 展开更多
关键词 steepest descent Line search unconstrained optimization convergence.
原文传递
Fractional-order global optimal backpropagation machine trained by an improved fractional-order steepest descent method 被引量:2
9
作者 Yi-fei PU Jian WANG 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2020年第6期809-833,共25页
We introduce the fractional-order global optimal backpropagation machine,which is trained by an improved fractionalorder steepest descent method(FSDM).This is a fractional-order backpropagation neural network(FBPNN),a... We introduce the fractional-order global optimal backpropagation machine,which is trained by an improved fractionalorder steepest descent method(FSDM).This is a fractional-order backpropagation neural network(FBPNN),a state-of-the-art fractional-order branch of the family of backpropagation neural networks(BPNNs),different from the majority of the previous classic first-order BPNNs which are trained by the traditional first-order steepest descent method.The reverse incremental search of the proposed FBPNN is in the negative directions of the approximate fractional-order partial derivatives of the square error.First,the theoretical concept of an FBPNN trained by an improved FSDM is described mathematically.Then,the mathematical proof of fractional-order global optimal convergence,an assumption of the structure,and fractional-order multi-scale global optimization of the FBPNN are analyzed in detail.Finally,we perform three(types of)experiments to compare the performances of an FBPNN and a classic first-order BPNN,i.e.,example function approximation,fractional-order multi-scale global optimization,and comparison of global search and error fitting abilities with real data.The higher optimal search ability of an FBPNN to determine the global optimal solution is the major advantage that makes the FBPNN superior to a classic first-order BPNN. 展开更多
关键词 Fractional calculus Fractional-order backpropagation algorithm Fractional-order steepest descent method Mean square error Fractional-order multi-scale global optimization
原文传递
基于非下降线搜索的改进PRP共轭梯度方法及在图像恢复中的应用
10
作者 李朋原 《现代信息科技》 2024年第17期62-67,共6页
PRP方法是最有效的非线性共轭梯度优化方法之一,然而该方法不能保证产生目标函数的下降方向,这给一般函数的全局收敛带来了困难。为了保证PRP方法的全局收敛性,提出了一种改进的PRP共轭梯度方法。文章以非凸优化问题为目标,简要介绍了... PRP方法是最有效的非线性共轭梯度优化方法之一,然而该方法不能保证产生目标函数的下降方向,这给一般函数的全局收敛带来了困难。为了保证PRP方法的全局收敛性,提出了一种改进的PRP共轭梯度方法。文章以非凸优化问题为目标,简要介绍了非下降线搜索技术以及一些适当的假设条件,探讨了改进PRP方法的全局收敛性。基于MATLAB软件工具,验证了新方法在处理无约束优化和图像恢复问题时的有效性和实用性。 展开更多
关键词 共轭梯度方法 非下降线搜索 全局收敛性 无约束优化 图像修复
下载PDF
求解一类无约束优化的混合遗传算法 被引量:9
11
作者 张晓伟 邢志栋 董建民 《西北大学学报(自然科学版)》 CAS CSCD 北大核心 2005年第2期130-132,共3页
目的求解一类无约束优化问题。方法结合传统优化算法局部寻优能力强、收敛速度快,而遗传算法在搜索过程中不易陷入局部最优的两种算法的特点,给出了一种基于最速下降法的混合遗传算法。结果算例表明所设计的算法是有效的。结论算法可以... 目的求解一类无约束优化问题。方法结合传统优化算法局部寻优能力强、收敛速度快,而遗传算法在搜索过程中不易陷入局部最优的两种算法的特点,给出了一种基于最速下降法的混合遗传算法。结果算例表明所设计的算法是有效的。结论算法可以提高局部搜索能力,提高解的精确度,搜索速度。 展开更多
关键词 遗传算法 最速下降法 混合遗传算法 无约束优化
下载PDF
基于遗传算法的Rosenbrock函数优化问题的研究 被引量:32
12
作者 梁艳春 周春光 李寿范 《软件学报》 EI CSCD 北大核心 1997年第9期701-708,共8页
本文利用遗传算法研究了极小化Rosenbrock函数的问题.较多的计算机模拟实验结果表明,遗传算法可以有效地解决这一问题.文中还分析了一些改进的遗传算法对于该问题搜索速度的影响,得到了适于解决此问题的合理的遗传操作,从而为有效... 本文利用遗传算法研究了极小化Rosenbrock函数的问题.较多的计算机模拟实验结果表明,遗传算法可以有效地解决这一问题.文中还分析了一些改进的遗传算法对于该问题搜索速度的影响,得到了适于解决此问题的合理的遗传操作,从而为有效地解决最速下降法所不能实现的某一类函数代化问题提供了一种新的途径. 展开更多
关键词 遗传算法 函数优化 Rosenbrock函数 优化问题
下载PDF
一类混合CD-LS共轭梯度法的全局收敛性 被引量:7
13
作者 张雁 单锐 +1 位作者 王换鹏 靳飞 《辽宁工程技术大学学报(自然科学版)》 CAS 北大核心 2013年第3期409-412,共4页
为了寻找同时具有良好的收敛性和数值表现的共轭梯度法.将CD方法和LS方法结合,选用推广的Wolfe线搜索,构造出一类新的混合共轭梯度法.新的混合共轭梯度法不需要限制推广的Wolfe线搜索条件中的参数,但得到的下降性与CD法一致,具有比CD方... 为了寻找同时具有良好的收敛性和数值表现的共轭梯度法.将CD方法和LS方法结合,选用推广的Wolfe线搜索,构造出一类新的混合共轭梯度法.新的混合共轭梯度法不需要限制推广的Wolfe线搜索条件中的参数,但得到的下降性与CD法一致,具有比CD方法更好的收敛性,并具有全局收敛性.对新算法进行数值试验,通过与CD法和LS法的数值结果进行比较,表明新算法是可行的,尤其对大规模无约束优化问题. 展开更多
关键词 无约束优化问题 共轭梯度法 混合 WOLFE线搜索 推广 下降性 全局收敛性 数值表现
下载PDF
一类新的DY-型共轭梯度法的全局收敛性 被引量:4
14
作者 蒙诗德 刘利英 +1 位作者 吴庆军 黄宏波 《广西科学》 CAS 2006年第4期276-278,281,共4页
给出求解非线性无约束优化问题的新的DY-型共轭梯度公式和新算法,证明新公式和新算法在推广W olfe规则下分别具有下降性和全局收敛性.文献[14]提出的杂交共轭梯度公式中βk的取值是新的DY-型共轭梯度公式的特例.
关键词 无约束优化 共轭梯度法 线搜索 下降性 全局收敛性
下载PDF
最速下降法和共轭梯度的混合算法及全局收敛 被引量:8
15
作者 汤仪平 金福江 《华侨大学学报(自然科学版)》 CAS 北大核心 2007年第2期124-126,共3页
将最速下降法与共轭梯度法有机结合起来,构造出一种混合优化算法,并证明其全局收敛性.这种混合优化算法结合了共轭梯度法和最速下降法产生搜索方向,既提高了共轭梯度算法的收敛速度,又解决了目标函数的等值线是扁长椭球时,最速下降法下... 将最速下降法与共轭梯度法有机结合起来,构造出一种混合优化算法,并证明其全局收敛性.这种混合优化算法结合了共轭梯度法和最速下降法产生搜索方向,既提高了共轭梯度算法的收敛速度,又解决了目标函数的等值线是扁长椭球时,最速下降法下降缓慢的问题,具有收敛速度快、收敛范围大、适应面广等特点.文中的算法实例表明,混合算法与单纯的共轭梯度法相比,效果更优. 展开更多
关键词 最速下降法 共轭梯度法 混合算法 全局收敛性
下载PDF
一类无约束优化的修正共轭梯度法 被引量:3
16
作者 孙中波 祝英杰 +1 位作者 朱振超 高海音 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2014年第3期460-464,共5页
针对无约束优化问题,提出一种新的充分下降共轭梯度法.该算法在每次迭代过程中,产生的搜索方向均为充分下降方向.在适当条件下,证明了算法的全局收敛性.数值结果表明算法是可行和有效的.
关键词 共轭梯度法 全局收敛 无约束优化 充分下降方向
下载PDF
多策略粒子群优化算法 被引量:6
17
作者 曹炬 陈钢 李艳姣 《计算机工程与科学》 CSCD 北大核心 2014年第9期1716-1721,共6页
为了克服粒子群优化算法易早熟、局部搜索能力弱的问题,提出了一种改进的粒子群优化算法——多策略粒子群优化算法。在群体寻优过程中,各粒子根据搜索到的最优位置的变动情况,从几种备选的策略中抉择出当代的最优搜索策略。其中,最优粒... 为了克服粒子群优化算法易早熟、局部搜索能力弱的问题,提出了一种改进的粒子群优化算法——多策略粒子群优化算法。在群体寻优过程中,各粒子根据搜索到的最优位置的变动情况,从几种备选的策略中抉择出当代的最优搜索策略。其中,最优粒子有最速下降策略、矫正下降策略和随机移动策略可以选择,非最优粒子有聚集策略和扩散策略可以选择。四个典型测试函数的数值实验结果表明,新提出的算法比标准粒子群优化算法具有更强和更稳定的全局搜索能力。 展开更多
关键词 粒子群优化算法 差商最速下降法 扩散 决策
下载PDF
一种自动充分下降的共轭梯度法 被引量:5
18
作者 黎勇 韦增欣 《西南师范大学学报(自然科学版)》 CAS 北大核心 2016年第5期36-40,共5页
设计了一个新的含参数的共轭梯度公式,此公式自动拥有充分下降性质,在适当条件下,新算法在WWP线搜索下全局收敛.数值实验结果表明新算法是有效的,适用于无约束优化问题的求解.
关键词 无约束优化 共轭梯度法 充分下降条件 全局收敛性
下载PDF
基于遗传算法优化的BP神经网络在粗糙度预测上的应用 被引量:7
19
作者 莫蓉 田国良 孙惠斌 《机械科学与技术》 CSCD 北大核心 2015年第5期729-732,共4页
针对BP神经网络预测工件表面粗糙度精度不高的问题,提出了一种基于遗传算法优化的BP神经网络预测方法。首先用遗传算法对BP神经网络的初始权值、阈值进行全局寻优,然后对优化的BP神经网络进行训练、预测。通过MATLAB进行了粗糙度预测仿... 针对BP神经网络预测工件表面粗糙度精度不高的问题,提出了一种基于遗传算法优化的BP神经网络预测方法。首先用遗传算法对BP神经网络的初始权值、阈值进行全局寻优,然后对优化的BP神经网络进行训练、预测。通过MATLAB进行了粗糙度预测仿真验证。结果表明:优化的BP神经网络比未优化的BP神经网络具有更高的预测精度。 展开更多
关键词 遗传算法 BP神经网络 表面粗糙度 预测方法
下载PDF
多项式前向神经网络 被引量:2
20
作者 谢开贵 柏森 周家启 《重庆大学学报(自然科学版)》 EI CAS CSCD 北大核心 2001年第3期76-79,98,共5页
提出一种新型的前向神经网络模型———多项式神经网络。该网络具有三层结构 ,隐层、输出层神经元激活函数分别为 :f(x) =xp 和线性函数 ;网络隐层 -输出层的权值采取最速下降法学习 ,输入层 -隐层的权值采用遗传算法进行学习 ;网络学习... 提出一种新型的前向神经网络模型———多项式神经网络。该网络具有三层结构 ,隐层、输出层神经元激活函数分别为 :f(x) =xp 和线性函数 ;网络隐层 -输出层的权值采取最速下降法学习 ,输入层 -隐层的权值采用遗传算法进行学习 ;网络学习时 ,其误差函数单调递减 ,学习算法具有较好的收敛性 ;该网络能逼近任意的连续函数 ,且具有较好的稳定性。应用实例表明该网络的性能是优良的。 展开更多
关键词 多项式前向神经网络 最速下降法 算法收敛性 逼近能力
下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部