期刊文献+
共找到38篇文章
< 1 2 >
每页显示 20 50 100
Global Convergence of a Hybrid Conjugate Gradient Method
1
作者 吴雪莎 《Chinese Quarterly Journal of Mathematics》 2015年第3期408-415,共8页
Conjugate gradient method is one of successful methods for solving the unconstrained optimization problems. In this paper, absorbing the advantages of FR and CD methods, a hybrid conjugate gradient method is proposed.... Conjugate gradient method is one of successful methods for solving the unconstrained optimization problems. In this paper, absorbing the advantages of FR and CD methods, a hybrid conjugate gradient method is proposed. Under the general Wolfe linear searches, the proposed method can generate the sufficient descent direction at each iterate,and its global convergence property also can be established. Some preliminary numerical results show that the proposed method is effective and stable for the given test problems. 展开更多
关键词 CONJUGATE GRADIENT method general Wolfe linear search SUFFICIENT descent condition global convergence
下载PDF
Synchronous Parallel Block Coordinate Descent Method for Nonsmooth Convex Function Minimization
2
作者 DAI Yutong WENG Yang 《Journal of Systems Science & Complexity》 SCIE EI CSCD 2020年第2期345-365,共21页
This paper proposes a synchronous parallel block coordinate descent algorithm for minimizing a composite function,which consists of a smooth convex function plus a non-smooth but separable convex function.Due to the g... This paper proposes a synchronous parallel block coordinate descent algorithm for minimizing a composite function,which consists of a smooth convex function plus a non-smooth but separable convex function.Due to the generalization of the proposed method,some existing synchronous parallel algorithms can be considered as special cases.To tackle high dimensional problems,the authors further develop a randomized variant,which randomly update some blocks of coordinates at each round of computation.Both proposed parallel algorithms are proven to have sub-linear convergence rate under rather mild assumptions.The numerical experiments on solving the large scale regularized logistic regression with 1 norm penalty show that the implementation is quite efficient.The authors conclude with explanation on the observed experimental results and discussion on the potential improvements. 展开更多
关键词 Block coordinate descent convergence rate convex functions parallel algorithms
原文传递
A Coordinate Gradient Descent Method for Nonsmooth Nonseparable Minimization 被引量:9
3
作者 Zheng-Jian Bai Michael K. Ng Liqun Qi 《Numerical Mathematics(Theory,Methods and Applications)》 SCIE 2009年第4期377-402,共26页
This paper presents a coordinate gradient descent approach for minimizing the sum of a smooth function and a nonseparable convex function.We find a search direction by solving a subproblem obtained by a second-order a... This paper presents a coordinate gradient descent approach for minimizing the sum of a smooth function and a nonseparable convex function.We find a search direction by solving a subproblem obtained by a second-order approximation of the smooth function and adding a separable convex function.Under a local Lipschitzian error bound assumption,we show that the algorithm possesses global and local linear convergence properties.We also give some numerical tests(including image recovery examples) to illustrate the efficiency of the proposed method. 展开更多
关键词 梯度下降法 光滑函数 不可分 最小化 坐标 局部线性 数值试验 图像复原
下载PDF
A New Type of Solution Method for the Generalized Linear Complementarity Problem over a Polyhedral Cone 被引量:2
4
作者 Hong-Chun Sun Yan-Liang Dong 《International Journal of Automation and computing》 EI 2009年第3期228-233,共6页
This paper addresses the generalized linear complementarity problem (GLCP) over a polyhedral cone. To solve the problem, we first equivalently convert the problem into an affine variational inequalities problem over... This paper addresses the generalized linear complementarity problem (GLCP) over a polyhedral cone. To solve the problem, we first equivalently convert the problem into an affine variational inequalities problem over a closed polyhedral cone, and then propose a new type of method to solve the GLCP based on the error bound estimation. The global and R-linear convergence rate is established. The numerical experiments show the efficiency of the method. 展开更多
关键词 Generalized linear complementarity problem (GLCP) error bound algorithm global convergence R-linear convergence rate.
下载PDF
A Modified Projection Method for Linear Feasibility Problems
5
作者 Yi-Ju Wang Hong-Yu Zhang 《International Journal of Automation and computing》 EI 2009年第4期401-405,共5页
In this paper, we present a modified projection method for the linear feasibility problems (LFP). Compared with the existing methods, the new method adopts a surrogate technique to obtain new iteration instead of th... In this paper, we present a modified projection method for the linear feasibility problems (LFP). Compared with the existing methods, the new method adopts a surrogate technique to obtain new iteration instead of the line search procedure with fixed stepsize. For the new method, we first show its global convergence under the condition that the solution set is nonempty, and then establish its linear convergence rate. Preliminary numerical experiments show that this method has good performance. 展开更多
关键词 linear feasibility problem (LFP) projection method global convergence convergence rate computational experiments
下载PDF
On the Linear Convergence of the Approximate Proximal Splitting Method for Non-smooth Convex Optimization
6
作者 Mojtaba Kadkhodaie Maziar Sanjabi Zhi-Quan Luo 《Journal of the Operations Research Society of China》 EI 2014年第2期123-141,共19页
Consider the problem of minimizing the sum of two convex functions,one being smooth and the other non-smooth.In this paper,we introduce a general class of approximate proximal splitting(APS)methods for solving such mi... Consider the problem of minimizing the sum of two convex functions,one being smooth and the other non-smooth.In this paper,we introduce a general class of approximate proximal splitting(APS)methods for solving such minimization problems.Methods in the APS class include many well-known algorithms such as the proximal splitting method,the block coordinate descent method(BCD),and the approximate gradient projection methods for smooth convex optimization.We establish the linear convergence of APS methods under a local error bound assumption.Since the latter is known to hold for compressive sensing and sparse group LASSO problems,our analysis implies the linear convergence of the BCD method for these problems without strong convexity assumption. 展开更多
关键词 Convex optimization Proximal splitting method Block coordinate descent method convergence rate analysis Local error bound
原文传递
一个修正的谱共轭梯度法
7
作者 朱艺轩 宋恩彬 《工程数学学报》 CSCD 北大核心 2023年第4期591-604,共14页
对无约束优化问题进行了研究,提出了一个修正的谱共轭梯度法。该算法的搜索方向是下降方向,在标准的Wolfe-Powell线搜索下具有全局收敛性,且在适当的条件下,证明了该算法具有线性收敛率。对一些标准的测试函数进行了数值实验,数值实验... 对无约束优化问题进行了研究,提出了一个修正的谱共轭梯度法。该算法的搜索方向是下降方向,在标准的Wolfe-Powell线搜索下具有全局收敛性,且在适当的条件下,证明了该算法具有线性收敛率。对一些标准的测试函数进行了数值实验,数值实验结果表明所提算法在算法迭代次数,函数调用次数以及程序运行时间等方面是有效的,且与相关算法相比有一定的优势。最后将该算法应用到图像去噪问题,对经典图像Lena与Camera施加了不同的噪声效果并用该算法进行图像去噪,与文献中相关算法进行了对比,通过信噪比这一指标说明该算法有良好的去噪效果。 展开更多
关键词 共轭梯度法 谱共轭梯度法 全局收敛 线性收敛率 图像去噪问题
下载PDF
一类新的曲线搜索下的多步下降算法 被引量:7
8
作者 汤京永 董丽 李学志 《应用数学》 CSCD 北大核心 2009年第4期815-820,共6页
提出一类新的曲线搜索下的多步下降算法,在较弱条件下证明了算法具有全局收敛性和线性收敛速率.算法利用前面多步迭代点的信息和曲线搜索技巧产生新的迭代点,收敛稳定,不用计算和存储矩阵,适于求解大规模优化问题.数值试验表明算法是有... 提出一类新的曲线搜索下的多步下降算法,在较弱条件下证明了算法具有全局收敛性和线性收敛速率.算法利用前面多步迭代点的信息和曲线搜索技巧产生新的迭代点,收敛稳定,不用计算和存储矩阵,适于求解大规模优化问题.数值试验表明算法是有效的. 展开更多
关键词 无约束优化 曲线搜索 全局收敛性 线性收敛速率
下载PDF
一类新的求解无约束优化问题的记忆梯度法 被引量:4
9
作者 汤京永 贺国平 董丽 《数学杂志》 CSCD 北大核心 2011年第2期362-368,共7页
本文研究了无约束优化问题.利用当前和前面迭代点的信息产生下降方向以及Armijo线性搜索确定步长,得到了一类新的记忆梯度法.在较弱条件下证明了算法具有全局收敛性和线性收敛速率.数值试验表明算法是有效的.
关键词 无约束优化 记忆梯度法 全局收敛性 线性收敛速率
下载PDF
一类新的记忆梯度法及其收敛性 被引量:4
10
作者 汤京永 董丽 《工程数学学报》 CSCD 北大核心 2010年第4期637-642,共6页
本文着重研究求解无约束优化问题的记忆梯度法,利用当前和前面一步迭代点的信息产生下降方向,采用Armijo线性搜索确定步长,得到了一类新的无约束优化算法。新算法在较弱的条件下具有全局收敛性和线性收敛速率,并且不用计算和存储矩阵,... 本文着重研究求解无约束优化问题的记忆梯度法,利用当前和前面一步迭代点的信息产生下降方向,采用Armijo线性搜索确定步长,得到了一类新的无约束优化算法。新算法在较弱的条件下具有全局收敛性和线性收敛速率,并且不用计算和存储矩阵,适于求解大规模优化问题。数值试验表明算法是有效的。 展开更多
关键词 无约束优化 记忆梯度法 全局收敛性 线性收敛速率
下载PDF
Armijo型线搜索下的三项共轭梯度法 被引量:2
11
作者 黄海 潘义前 罗雁 《西北师范大学学报(自然科学版)》 CAS 北大核心 2011年第5期17-21,共5页
基于无记忆BFGS拟牛顿法结构,给出一个LS型的三项共轭梯度法,证明了该方法在Armijo型线搜索下对非凸函数具有全局收敛性,对二阶连续一致凸函数具有至少R-线性收敛速率.初步的数值实验表明该方法是有效的.
关键词 无约束优化 三项共轭梯度法 ARMIJO型线搜索 全局收敛性 线性收敛速率
下载PDF
一个新的求解无约束优化问题的超记忆梯度法 被引量:1
12
作者 汤京永 田会宇 《信阳师范学院学报(自然科学版)》 CAS 北大核心 2013年第3期324-326,共3页
提出一个新的求解无约束优化问题的超记忆梯度法.该算法在每步迭代中充分利用前面迭代点的信息产生下降方向,利用曲线搜索产生步长,并且在每步迭代中不需计算和存储矩阵,适于求解大规模优化问题.在较弱的条件下证明了算法具有全局收敛... 提出一个新的求解无约束优化问题的超记忆梯度法.该算法在每步迭代中充分利用前面迭代点的信息产生下降方向,利用曲线搜索产生步长,并且在每步迭代中不需计算和存储矩阵,适于求解大规模优化问题.在较弱的条件下证明了算法具有全局收敛性和线性收敛速度.数值实验表明该算法是有效的. 展开更多
关键词 无约束优化 曲线搜索 全局收敛 线性收敛速度
下载PDF
一类新的记忆梯度法 被引量:1
13
作者 莫利柳 《西北师范大学学报(自然科学版)》 CAS 北大核心 2010年第4期32-36,共5页
提出了一类新的求解无约束优化问题的记忆梯度法,在较弱条件下证明了该方法的全局收敛性和线性收敛速率.该算法无需任何线搜索而具有充分下降性,且搜索方向自适应在一个信赖域范围之内;该方法继承了著名PRP方法的一个主要性质:当步长很... 提出了一类新的求解无约束优化问题的记忆梯度法,在较弱条件下证明了该方法的全局收敛性和线性收敛速率.该算法无需任何线搜索而具有充分下降性,且搜索方向自适应在一个信赖域范围之内;该方法继承了著名PRP方法的一个主要性质:当步长很小时,搜索方向靠近于最速下降方向,避免了连续小步长的产生.初步的数值实验结果表明该方法是有效的. 展开更多
关键词 无约束优化 记忆梯度法 全局收敛性 线性收敛速率
下载PDF
无约束优化问题的稀疏拟牛顿法 被引量:1
14
作者 时贞军 孙国 《泰山学院学报》 2003年第6期1-5,共5页
 对无约束优化问题提出了一种稀疏拟牛顿法,算法在每次迭代中运用拟牛顿方法的思想确定其搜索方向,采用非精确线性搜索确定步长,在通常的假设条件下,证明了算法的全局收敛性和线性收敛速度.
关键词 无约束优化 稀疏拟牛顿法 迭代法 阻尼牛顿法 收敛性
下载PDF
最速下降算法的教学探讨 被引量:1
15
作者 董晓亮 高岳林 《宁夏师范学院学报》 2011年第3期93-96,共4页
最速下降算法是求解无约束优化问题的一种基本而重要的方法,讨论了最速下降算法的数值表现、"锯齿现象"的成因分析,以及与其它算法之间的关联.
关键词 无约束优化 最速下降算法 线性收敛 锯齿现象
下载PDF
Armijo线性搜索下的多步下降算法
16
作者 汤京永 贺国平 董丽 《数学杂志》 CSCD 北大核心 2012年第5期875-882,共8页
本文研究无约束优化问题.利用前面多步迭代点的信息产生下降方向以及Armijo线性搜索产生步长,得到了一类新的多步下降算法,并且在较弱条件下证明了算法具有全局收敛性和线性收敛速率.初步的数值试验表明算法是有效的.
关键词 无约束优化 下降算法 全局收敛性 线性收敛速率
下载PDF
一类记忆梯度法的收敛性
17
作者 智红英 王希云 张唐圣 《西南民族大学学报(自然科学版)》 CAS 2008年第1期65-69,共5页
研究一类新的记忆梯度法,算法利用当前点的负梯度和前一点的搜索方向的线性组合为搜索方向,以强wolfe线搜索确定步长,并证明了算法具有全局收敛性,当目标函数一致凸时讨论了收敛速度.
关键词 无约束优化 记忆梯度法 强wolfe线搜索 收敛性 线性收敛速度
下载PDF
一类新的记忆梯度法及其收敛性
18
作者 汤京永 董丽 《中山大学学报(自然科学版)》 CAS CSCD 北大核心 2010年第5期25-29,共5页
提出一类新的求解无约束优化问题的记忆梯度法。算法在每步迭代中利用当前和前面迭代点的信息产生下降方向,采用精确线性搜索或Wolfe非精确线性搜索产生步长,在较弱条件下证明了算法具有全局收敛性和线性收敛速率。数值试验表明算法是... 提出一类新的求解无约束优化问题的记忆梯度法。算法在每步迭代中利用当前和前面迭代点的信息产生下降方向,采用精确线性搜索或Wolfe非精确线性搜索产生步长,在较弱条件下证明了算法具有全局收敛性和线性收敛速率。数值试验表明算法是有效的。 展开更多
关键词 无约束优化 记忆梯度法 全局收敛性 线性收敛速率
下载PDF
Wolfe线性搜索下的超记忆梯度法及其收敛性
19
作者 汤京永 董丽 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2010年第3期396-400,共5页
研究无约束优化问题,给出了一种新的超记忆梯度法,在较弱条件下证明了算法具有全局收敛性和线性收敛速率.数值试验表明新算法是有效的.
关键词 无约束优化 超记忆梯度法 全局收敛性 线性收敛速率
下载PDF
一类无需线性搜索的记忆梯度法
20
作者 汤京永 董丽 《应用数学》 CSCD 北大核心 2011年第2期249-254,共6页
提出一类新的求解无约束优化问题的记忆梯度法,证明了算法的全局收敛性.当目标函数为一致凸函数时,对其线性收敛速率进行了分析.新算法在迭代过程中无需对步长进行线性搜索,仅需对算法中的一些参数进行预测估计,从而减少了目标函数及梯... 提出一类新的求解无约束优化问题的记忆梯度法,证明了算法的全局收敛性.当目标函数为一致凸函数时,对其线性收敛速率进行了分析.新算法在迭代过程中无需对步长进行线性搜索,仅需对算法中的一些参数进行预测估计,从而减少了目标函数及梯度的迭代次数,降低了算法的计算量和存储量.数值试验表明算法是有效的. 展开更多
关键词 无约束优化 记忆梯度法 全局收敛性 线性收敛速率
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部