期刊文献+
共找到12篇文章
< 1 >
每页显示 20 50 100
结合广义Armijo步长搜索的一类新的共轭度算法及其收敛特征 被引量:7
1
作者 孙清滢 刘新海 《工程数学学报》 CSCD 北大核心 2003年第1期14-20,共7页
对求解无约束规划的共轭梯度算法中共轭梯度方向中的参数给了一个假设条件,从而确定它的一个取值范围,使其在此范围内取值均能保证共轭梯度方向是目标函数的充分下降方向,提出了一类新的共轭梯度算法,在去掉迭代点列有界和广义Armijo步... 对求解无约束规划的共轭梯度算法中共轭梯度方向中的参数给了一个假设条件,从而确定它的一个取值范围,使其在此范围内取值均能保证共轭梯度方向是目标函数的充分下降方向,提出了一类新的共轭梯度算法,在去掉迭代点列有界和广义Armijo步长搜索下讨论了算法的全局收敛性。同时给出了具有好的收敛性质和较快收敛速度的FR,PR,HS共轭梯度法的修正形式。数值例子表明新算法比Armijo搜索下的FR,PR,HS共轭梯算法更稳定更有效。算法需要较小的存储,特别适于求解大规模无约束最优化问题。 展开更多
关键词 非线性规划 共轭梯度法 广义armijo步长搜索 数值实验 收敛
下载PDF
结合Armijo步长搜索的一类新记忆梯度算法及其收敛特征 被引量:4
2
作者 孙清滢 刘新海 《石油大学学报(自然科学版)》 CSCD 北大核心 2003年第5期129-132,共4页
对于求解无约束规划的共轭梯度算法中的共轭梯度方向参数 ,给定一个假设条件 ,确定它的一个取值范围 ,以保证搜索方向是目标函数的充分下降方向 ,由此提出了一类新的记忆梯度算法。在去掉迭代点列有界和Armijo步长搜索下 ,讨论了算法的... 对于求解无约束规划的共轭梯度算法中的共轭梯度方向参数 ,给定一个假设条件 ,确定它的一个取值范围 ,以保证搜索方向是目标函数的充分下降方向 ,由此提出了一类新的记忆梯度算法。在去掉迭代点列有界和Armijo步长搜索下 ,讨论了算法的全局收敛性 ,同时给出了结合FR、PR、HS共轭梯度算法的修正形式。数值实验表明 ,新算法比Armijo步长搜索下的FR、PR、HS共轭梯度法更稳定、更有效。 展开更多
关键词 armijo步长搜索 记忆梯度算法 收敛性 数值实验 非线性规划 共轭梯度
下载PDF
结合广义Armijo步长搜索的带误差项的记忆梯度算法
3
作者 孙清滢 桑兆阳 吕炜 《中国石油大学学报(自然科学版)》 EI CAS CSCD 北大核心 2009年第1期162-166,共5页
对非线性无约束规划提出了结合广义Armijo步长搜索规则的一类带误差项的记忆梯度求解算法,在目标函数梯度一致连续的条件下,证明了算法的全局收敛性,同时给出带误差项的结合拟-Newton方程的记忆梯度算法。数值结果表明算法是有效的。
关键词 无约束最优化 带误差项的记忆梯度法 广义armijo步长搜索规则 全局收敛 数值试验
下载PDF
结合Armijo步长搜索的新三项共轭梯度算法及其收敛特征
4
作者 孙清滢 钱伟懿 《大连理工大学学报》 EI CAS CSCD 北大核心 2004年第2期166-169,共4页
对求解无约束优化问题提出了一类新的三项共轭梯度求解算法,在去掉迭代点列{xk}有界和Armijo步长搜索下,讨论了算法的全局收敛性.同时给出结合FR、PR、HS共轭梯度参数的三项共轭梯度算法.数值算例表明新算法比Armijo步长搜索下的FR、PR... 对求解无约束优化问题提出了一类新的三项共轭梯度求解算法,在去掉迭代点列{xk}有界和Armijo步长搜索下,讨论了算法的全局收敛性.同时给出结合FR、PR、HS共轭梯度参数的三项共轭梯度算法.数值算例表明新算法比Armijo步长搜索下的FR、PR、HS共轭梯度算法有效. 展开更多
关键词 armijo步长搜索 三项共轭梯度算法 无约束优化 全局收敛性 非线性规划
下载PDF
Armijo步长搜索的共轭方向算法
5
作者 孙清 《石油大学学报(自然科学版)》 CSCD 1994年第6期130-133,共4页
对无约束最优化问题(P)minf(x)(其中f(x)是R’上一阶连续可微函数)提出了经典共轭方向算法和在Armijo步长搜索下的一种自然推广形式,并在凸性条件下,给出了算法的全局收敛性,然后将上述算法进行改进,在去掉... 对无约束最优化问题(P)minf(x)(其中f(x)是R’上一阶连续可微函数)提出了经典共轭方向算法和在Armijo步长搜索下的一种自然推广形式,并在凸性条件下,给出了算法的全局收敛性,然后将上述算法进行改进,在去掉凸性假设之下,证明了算法的全局收敛性。 展开更多
关键词 非线性规划 共轭梯度 armijo步长搜索 算法
下载PDF
一个新的带误差项的记忆梯度算法 被引量:3
6
作者 孙清滢 谷亚丽 王长钰 《工程数学学报》 CSCD 北大核心 2007年第5期813-818,共6页
对无约束规划问题,本文提出了结合Armijo步长搜索规则的一类带误差项的记忆梯度求解算法,并在目标函数的梯度一致连续的条件下,证明了算法的全局收敛性。同时给出带误差项的结合拟-Newton方程的记忆梯度算法。数值例子表明算法是有效的。
关键词 无约束最优化 记忆梯度法 广义armijo步长搜索规则 收敛
下载PDF
修正的HS共轭梯度算法的全局收敛性 被引量:2
7
作者 郑艳梅 孙清滢 +1 位作者 王清河 常兆光 《中国石油大学学报(自然科学版)》 EI CAS CSCD 北大核心 2006年第5期143-146,共4页
对求解无约束优化问题的共轭梯度法中的方向参数给定新的区间取法,将HS共轭梯度参数限制在此区间上,保证搜索方向是目标函数的充分下降方向,在此基础上提出了修正HS共轭梯度算法(MHS),并在较弱的条件下讨论了新算法在广义Armijo步长搜... 对求解无约束优化问题的共轭梯度法中的方向参数给定新的区间取法,将HS共轭梯度参数限制在此区间上,保证搜索方向是目标函数的充分下降方向,在此基础上提出了修正HS共轭梯度算法(MHS),并在较弱的条件下讨论了新算法在广义Armijo步长搜索下的全局收敛性。数值试验结果表明,新算法比广义Armijo步长搜索下的FR、PR、HS共轭梯度算法有效。 展开更多
关键词 无约束最优化 共轭梯度法 广义armijo步长搜索 全局收敛性
下载PDF
基于改进变尺度法的超宽带定位新算法 被引量:3
8
作者 郭建广 郑紫微 杨任尔 《计算机应用》 CSCD 北大核心 2014年第12期3395-3399,共5页
针对传统定位算法收敛速度慢的问题,结合超宽带通信具有时间分辨率高的特点,在到达时间差(TDOA)定位模型的基础上,采用基于Armijo步长的变尺度法(DFP)对目标节点进行初始定位,进一步在初始位置处以泰勒级数展开算法得到目标节点的最终位... 针对传统定位算法收敛速度慢的问题,结合超宽带通信具有时间分辨率高的特点,在到达时间差(TDOA)定位模型的基础上,采用基于Armijo步长的变尺度法(DFP)对目标节点进行初始定位,进一步在初始位置处以泰勒级数展开算法得到目标节点的最终位置,实现超宽带(UWB)通信系统精确定位。实验结果表明,采用改进变尺度法的初始坐标修正算法,不仅能够降低定位优化算法对于初始坐标的要求,而且在测量时间准确的前提下,相比传统最速下降法平均定位精度有7倍的改进,整个算法具有好的定位精度和定位效率。 展开更多
关键词 超宽带通信 变尺度法 armijo步长 到达时间差定位模型
下载PDF
分裂变分不等式问题及其外梯度算法
9
作者 郑娜 张善美 《泰山学院学报》 2013年第3期34-37,共4页
在本文中,我们结合Armijo步长搜索方法提出了求解分裂变分不等式问题的一种外梯度算法,证明了算法的收敛性.与相关文献中的算法相比,该算法避免了矩阵谱半径的计算.
关键词 分裂变分不等式 外梯度算法 armijo步长搜索 收敛
下载PDF
求解无约束优化问题的一类谱共轭梯度法
10
作者 崔海娟 钱伟懿 《辽宁工程技术大学学报(自然科学版)》 CAS 北大核心 2014年第5期687-690,共4页
针对无约束优化问题,提出一类谱共轭梯度法.谱共轭梯度法是对TS、GN及MPRP方法的修正,使得在任何线性搜索条件下都具有充分下降性.并且在Armijo型线性搜索条件下,证明了该类算法的全局收敛性.与GN、SFR及MPRP方法进行比较,数值结果表明... 针对无约束优化问题,提出一类谱共轭梯度法.谱共轭梯度法是对TS、GN及MPRP方法的修正,使得在任何线性搜索条件下都具有充分下降性.并且在Armijo型线性搜索条件下,证明了该类算法的全局收敛性.与GN、SFR及MPRP方法进行比较,数值结果表明:谱共轭梯度法是可行的,特别对于大规模无约束优化问题更有效. 展开更多
关键词 无约束优化 谱共轭梯度法 全局收敛性 充分下降性 armijo线性搜索 修正 步长 搜索方向
下载PDF
结合广义Armijo步长搜索的一类新的三项共轭梯度算法及其收敛特征 被引量:12
11
作者 孙清滢 刘新海 《计算数学》 CSCD 北大核心 2004年第1期25-36,共12页
In this paper, we consider the convergence properties of a new class of three terms conjugate gradient methods with generalized Armijo step size rule for minimizing a continuously differentiable function f on R^π wit... In this paper, we consider the convergence properties of a new class of three terms conjugate gradient methods with generalized Armijo step size rule for minimizing a continuously differentiable function f on R^π without assuming that the sequence {xk} of iterates is bounded. We prove that the limit infimum of ‖↓△f(xk)‖ is Zero. Moreover, we prove that, when f(x) is pseudo-convex (quasi-convex) function, this new method has strong convergence results: either xk→x* and x* is a minimizer (stationary point); or ‖xk‖→∞, arg min{f(x) :x∈R^n} =φ, and.f(xk) ↓ inf(f(x) : x∈R^n}. Combining FR, PR, HS methods with our new method, FR, PR, HS methods are modified to have global convergence property.Numerical result show that the new algorithms are efficient by comparing with FR,PR, HS conjugate gradient methods with Armijo step size rule. 展开更多
关键词 广义armijo步长搜索 三项共轭梯度算法 收敛特征 非线性规划
原文传递
Global Convergence of a Modified Gradient Projection Method for Convex Constrained Problems 被引量:1
12
作者 Qing-ying Sun Chang-yu Wang Zhen-jun Shi 《Acta Mathematicae Applicatae Sinica》 SCIE CSCD 2006年第2期227-242,共16页
In this paper, the continuously differentiable optimization problem min{f(x) : x∈Ω}, where Ω ∈ R^n is a nonempty closed convex set, the gradient projection method by Calamai and More (Math. Programming, Vol.39... In this paper, the continuously differentiable optimization problem min{f(x) : x∈Ω}, where Ω ∈ R^n is a nonempty closed convex set, the gradient projection method by Calamai and More (Math. Programming, Vol.39. P.93-116, 1987) is modified by memory gradient to improve the convergence rate of the gradient projection method is considered. The convergence of the new method is analyzed without assuming that the iteration sequence {x^k} of bounded. Moreover, it is shown that, when f(x) is pseudo-convex (quasiconvex) function, this new method has strong convergence results. The numerical results show that the method in this paper is more effective than the gradient projection method. 展开更多
关键词 Nonlinear programming PROJECTION generalized armijo step size rule CONVERGENCE
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部