期刊文献+
共找到40篇文章
< 1 2 >
每页显示 20 50 100
Almost Sure Convergence of Proximal Stochastic Accelerated Gradient Methods
1
作者 Xin Xiang Haoming Xia 《Journal of Applied Mathematics and Physics》 2024年第4期1321-1336,共16页
Proximal gradient descent and its accelerated version are resultful methods for solving the sum of smooth and non-smooth problems. When the smooth function can be represented as a sum of multiple functions, the stocha... Proximal gradient descent and its accelerated version are resultful methods for solving the sum of smooth and non-smooth problems. When the smooth function can be represented as a sum of multiple functions, the stochastic proximal gradient method performs well. However, research on its accelerated version remains unclear. This paper proposes a proximal stochastic accelerated gradient (PSAG) method to address problems involving a combination of smooth and non-smooth components, where the smooth part corresponds to the average of multiple block sums. Simultaneously, most of convergence analyses hold in expectation. To this end, under some mind conditions, we present an almost sure convergence of unbiased gradient estimation in the non-smooth setting. Moreover, we establish that the minimum of the squared gradient mapping norm arbitrarily converges to zero with probability one. 展开更多
关键词 Proximal Stochastic Accelerated method Almost Sure convergence composite optimization Non-Smooth optimization Stochastic optimization Accelerated Gradient method
下载PDF
On the Linear Convergence of the Approximate Proximal Splitting Method for Non-smooth Convex Optimization
2
作者 Mojtaba Kadkhodaie Maziar Sanjabi Zhi-Quan Luo 《Journal of the Operations Research Society of China》 EI 2014年第2期123-141,共19页
Consider the problem of minimizing the sum of two convex functions,one being smooth and the other non-smooth.In this paper,we introduce a general class of approximate proximal splitting(APS)methods for solving such mi... Consider the problem of minimizing the sum of two convex functions,one being smooth and the other non-smooth.In this paper,we introduce a general class of approximate proximal splitting(APS)methods for solving such minimization problems.Methods in the APS class include many well-known algorithms such as the proximal splitting method,the block coordinate descent method(BCD),and the approximate gradient projection methods for smooth convex optimization.We establish the linear convergence of APS methods under a local error bound assumption.Since the latter is known to hold for compressive sensing and sparse group LASSO problems,our analysis implies the linear convergence of the BCD method for these problems without strong convexity assumption. 展开更多
关键词 convex optimization Proximal splitting method Block coordinate descent method convergence rate analysis Local error bound
原文传递
On the Sublinear Convergence Rate of Multi-block ADMM 被引量:6
3
作者 Tian-Yi Lin Shi-Qian Ma Shu-Zhong Zhang 《Journal of the Operations Research Society of China》 EI CSCD 2015年第3期251-274,共24页
The alternating direction method of multipliers(ADMM)is widely used in solving structured convex optimization problems.Despite its success in practice,the convergence of the standard ADMM for minimizing the sum of N(N... The alternating direction method of multipliers(ADMM)is widely used in solving structured convex optimization problems.Despite its success in practice,the convergence of the standard ADMM for minimizing the sum of N(N≥3)convex functions,whose variables are linked by linear constraints,has remained unclear for a very long time.Recently,Chen et al.(Math Program,doi:10.1007/s10107-014-0826-5,2014)provided a counter-example showing that the ADMM for N≥3 may fail to converge without further conditions.Since the ADMM for N≥3 has been very successful when applied to many problems arising from real practice,it is worth further investigating under what kind of sufficient conditions it can be guaranteed to converge.In this paper,we present such sufficient conditions that can guarantee the sublinear convergence rate for the ADMM for N≥3.Specifically,we show that if one of the functions is convex(not necessarily strongly convex)and the other N-1 functions are strongly convex,and the penalty parameter lies in a certain region,the ADMM converges with rate O(1/t)in a certain ergodic sense and o(1/t)in a certain non-ergodic sense,where t denotes the number of iterations.As a by-product,we also provide a simple proof for the O(1/t)convergence rate of two-blockADMMin terms of both objective error and constraint violation,without assuming any condition on the penalty parameter and strong convexity on the functions. 展开更多
关键词 Alternating direction method of multipliers Sublinear convergence rate convex optimization
原文传递
A Modified Proximal Gradient Method for a Family of Nonsmooth Convex Optimization Problems
4
作者 Ying-Yi Li Hai-Bin Zhang Fei Li 《Journal of the Operations Research Society of China》 EI CSCD 2017年第3期391-403,共13页
In this paper,we propose a modified proximal gradient method for solving a class of nonsmooth convex optimization problems,which arise in many contemporary statistical and signal processing applications.The proposed m... In this paper,we propose a modified proximal gradient method for solving a class of nonsmooth convex optimization problems,which arise in many contemporary statistical and signal processing applications.The proposed method adopts a new scheme to construct the descent direction based on the proximal gradient method.It is proven that the modified proximal gradient method is Q-linearly convergent without the assumption of the strong convexity of the objective function.Some numerical experiments have been conducted to evaluate the proposed method eventually. 展开更多
关键词 Nonsmooth convex optimization Modified proximal gradient method Q-linear convergence
原文传递
Application of Linearized Alternating Direction Multiplier Method in Dictionary Learning
5
作者 Xiaoli Yu 《Journal of Applied Mathematics and Physics》 2019年第1期138-147,共10页
The Alternating Direction Multiplier Method (ADMM) is widely used in various fields, and different variables are customized in the literature for different application scenarios [1] [2] [3] [4]. Among them, the linear... The Alternating Direction Multiplier Method (ADMM) is widely used in various fields, and different variables are customized in the literature for different application scenarios [1] [2] [3] [4]. Among them, the linearized alternating direction multiplier method (LADMM) has received extensive attention because of its effectiveness and ease of implementation. This paper mainly discusses the application of ADMM in dictionary learning (non-convex problem). Many numerical experiments show that to achieve higher convergence accuracy, the convergence speed of ADMM is slower, especially near the optimal solution. Therefore, we introduce the linearized alternating direction multiplier method (LADMM) to accelerate the convergence speed of ADMM. Specifically, the problem is solved by linearizing the quadratic term of the subproblem, and the convergence of the algorithm is proved. Finally, there is a brief summary of the full text. 展开更多
关键词 ALTERNATING Direction MULTIPLIER method DICTIONARY LEARNING Linearized ALTERNATING Direction MULTIPLIER Non-convex optimization convergence
下载PDF
A Symmetric Linearized Alternating Direction Method of Multipliers for a Class of Stochastic Optimization Problems
6
作者 Jia HU Qimin HU 《Journal of Systems Science and Information》 CSCD 2023年第1期58-77,共20页
Alternating direction method of multipliers(ADMM)receives much attention in the recent years due to various demands from machine learning and big data related optimization.In 2013,Ouyang et al.extend the ADMM to the s... Alternating direction method of multipliers(ADMM)receives much attention in the recent years due to various demands from machine learning and big data related optimization.In 2013,Ouyang et al.extend the ADMM to the stochastic setting for solving some stochastic optimization problems,inspired by the structural risk minimization principle.In this paper,we consider a stochastic variant of symmetric ADMM,named symmetric stochastic linearized ADMM(SSL-ADMM).In particular,using the framework of variational inequality,we analyze the convergence properties of SSL-ADMM.Moreover,we show that,with high probability,SSL-ADMM has O((ln N)·N^(-1/2))constraint violation bound and objective error bound for convex problems,and has O((ln N)^(2)·N^(-1))constraint violation bound and objective error bound for strongly convex problems,where N is the iteration number.Symmetric ADMM can improve the algorithmic performance compared to classical ADMM,numerical experiments for statistical machine learning show that such an improvement is also present in the stochastic setting. 展开更多
关键词 alternating direction method of multipliers stochastic approximation expected convergence rate and high probability bound convex optimization machine learning
原文传递
应用免疫遗传算法优化设计层合板铺层顺序 被引量:17
7
作者 鲁大伟 李书 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2005年第2期247-250,共4页
应用遗传算法对复合材料层合板的铺层顺序进行优化设计 ,并通过免疫机理解决基本遗传算法中存在的收敛效率低、“早熟”等问题 .以层合板的面内几何因子和弯曲因子为优化对象 ,建立遗传算法的优化模型 .通过交叉、变异等遗传操作 ,搜索... 应用遗传算法对复合材料层合板的铺层顺序进行优化设计 ,并通过免疫机理解决基本遗传算法中存在的收敛效率低、“早熟”等问题 .以层合板的面内几何因子和弯曲因子为优化对象 ,建立遗传算法的优化模型 .通过交叉、变异等遗传操作 ,搜索问题的最优解 .借助免疫系统对抗体的促进和抑制机制 ,调节种群中个体的多样性 .数值算例中给定了层合板的面内几何因子和弯曲因子 ,应用免疫遗传算法求解层合板的最佳铺层顺序 .并将应用免疫遗传算法与标准遗传算法得到的优化结果进行了比较 ,证明了免疫遗传算法的优越性和实用性 . 展开更多
关键词 遗传算法 优化 免疫 复合材料 铺层顺序
下载PDF
修正乘子交替方向法求解三个可分离算子的凸优化 被引量:7
8
作者 何炳生 《运筹学学报》 CSCD 北大核心 2015年第3期57-70,共14页
指出直接推广的经典乘子交替方向法对三个算子的问题不能保证收敛的原因,并且给出将其改造成收敛算法的相应策略.同时,在一个统一框架下,证明了修正的乘子交替方向法的收敛性和遍历意义下具有0(1/t)收敛速率.
关键词 凸优化 分裂收缩算法 变分不等式 统一框架 收敛速率
下载PDF
差商变尺度法的整体收敛性 被引量:4
9
作者 赵小平 《应用数学》 CSCD 北大核心 1994年第1期41-47,共7页
对于求解无约束最优化问题,变尺度法被公认为是最有效的方法之一,从1971年Powell的开创性工作以来,关于变尺度法收敛性的研究已形成了系统的理论,由于精确导数难以得到,常用差商代替,称为差商变尺度法,对其收敛性理论的研究,尚相当薄弱... 对于求解无约束最优化问题,变尺度法被公认为是最有效的方法之一,从1971年Powell的开创性工作以来,关于变尺度法收敛性的研究已形成了系统的理论,由于精确导数难以得到,常用差商代替,称为差商变尺度法,对其收敛性理论的研究,尚相当薄弱,本文证明了差商变尺度法的整体收敛性,同时给出了保证收敛的差商步长条件。 展开更多
关键词 变尺度法 整体收敛性 差商 最佳化
下载PDF
关于DFP算法的全局收敛性 被引量:1
10
作者 李董辉 《湖南大学学报(自然科学版)》 EI CAS CSCD 1993年第2期16-20,39,共6页
本文讨论求解无约束最优化问题的DFP算法的全局收敛性问题。设步长满足Armijo非精确搜索条件,证明了对严格凸二次函数最小值问题,DFP算法具有全局收敛性,并且收敛速度为超线性。
关键词 收敛 凸规划 DFP算法 最佳化
下载PDF
一类复合不可微优化问题的解法及其应用
11
作者 施保昌 周晓阳 +1 位作者 于寅 陈珽 《系统工程》 CSCD 1996年第1期1-9,共9页
本文对一类复合不可微优化问题,给出了一个算法模型并在较弱的条件下得到了其全局收敛性。以此为依据,我们构造了模型的几类具体特例,从而得到了可实现的几类算法。利用本文算法,我们可得到求解一类不可微多目标决策问题的各种标量化方法。
关键词 优化问题 算法模型 多目标决策
下载PDF
一种改进的求解凸规划问题的Broyden算法
12
作者 范远泽 张凤 《江汉石油学院学报》 CSCD 北大核心 1996年第2期124-127,共4页
对于无约束优化问R,为了使Broyden算法能用于并行算法,提出了一种改进的求解凸规划问题的Broyden算法,改进后的Broyden算法主要是引进了自然数集合的子集S={k1,k2,…},当xk迭代进行到k步时,如... 对于无约束优化问R,为了使Broyden算法能用于并行算法,提出了一种改进的求解凸规划问题的Broyden算法,改进后的Broyden算法主要是引进了自然数集合的子集S={k1,k2,…},当xk迭代进行到k步时,如呆k S,则将对应的Bk作一次修正,随后按原来的Broyden算法进行迭代,并且证明了目标函数为凸时,该算法的全局收敛性。 展开更多
关键词 计算机方法 Broyden处算法 凸函数 凸规划 最优
下载PDF
Gauss-Newton法的收敛性
13
作者 李冲 《浙江树人大学学报》 2005年第4期103-106,共4页
文章就求解方程最为重要的Newton法以及解非线性最小二乘问题和解非光滑复合凸优化问题的Gauss-Newton法的收敛性等问题的研究成果和进展作介绍。
关键词 NEWTON法 Gauss—Newton法 最小二乘问题 复合凸优化问题 收敛性
下载PDF
邻近分裂方法的线性收敛问题分析
14
作者 胡其明 《湘潭大学自然科学学报》 CAS 北大核心 2013年第4期13-17,共5页
图像处理、信号消噪、多任务学习等实际问题,最终都可以用凸优化问题来描述.如果邻近分裂方法的收敛性得以证实,将对其在凸优化问题求解中的应用提供依据.该文以m=2时的凸优化问题为研究背景,证实了邻近分裂方法收敛特征的存在.最后的... 图像处理、信号消噪、多任务学习等实际问题,最终都可以用凸优化问题来描述.如果邻近分裂方法的收敛性得以证实,将对其在凸优化问题求解中的应用提供依据.该文以m=2时的凸优化问题为研究背景,证实了邻近分裂方法收敛特征的存在.最后的数值实验结果,进一步印证了邻近分裂方法的收敛性,以及邻近分裂方法对于求解凸优化问题的适用性. 展开更多
关键词 凸优化 邻近分裂方法 线性收敛 数值实验
下载PDF
带非精确线搜索广义Broyden族的收敛性质
15
作者 柯小伍 《北京师范大学学报(自然科学版)》 CAS CSCD 北大核心 1999年第1期22-27,共6页
提出了一个新的函数,并给出此函数的性质.利用它们分析广义Broyden族.在较弱的条件下,对一致凸函数的无约束最优化问题,证明了带非精确线搜索的广义Broyden族的全局和超线性收敛性,而且在较弱的条件下,证明了Br... 提出了一个新的函数,并给出此函数的性质.利用它们分析广义Broyden族.在较弱的条件下,对一致凸函数的无约束最优化问题,证明了带非精确线搜索的广义Broyden族的全局和超线性收敛性,而且在较弱的条件下,证明了Broyden族的全局和超线性收敛性. 展开更多
关键词 无约束最优化 广义 BROYDEN族 超线性收敛性
下载PDF
求解非凸优化问题的同伦内点法研究进展
16
作者 李洪伟 《山东科技大学学报(自然科学版)》 CAS 2007年第4期77-81,共5页
自Karmarkar内点法被解释成同伦算法之后,以内点同伦算法为代表的同伦路径跟踪算法的研究迅速发展起来。目前同伦内点算法用于求解非凸优化问题的理论与算法尚未完善,本文主要总结求解非凸优化问题的同伦内点法相关研究成果,并指出求解... 自Karmarkar内点法被解释成同伦算法之后,以内点同伦算法为代表的同伦路径跟踪算法的研究迅速发展起来。目前同伦内点算法用于求解非凸优化问题的理论与算法尚未完善,本文主要总结求解非凸优化问题的同伦内点法相关研究成果,并指出求解非凸优化的同伦内点算法有待于进一步深入研究的主要问题。 展开更多
关键词 非凸优化 同伦内点法 整体收敛 法锥条件 拟法锥条件
下载PDF
一类修正邻近梯度法及其收敛性 被引量:1
17
作者 李英毅 张海斌 高欢 《数学物理学报(A辑)》 CSCD 北大核心 2015年第6期1136-1145,共10页
许多现代统计和信号应用问题都可以归结为非光滑凸优化问题,该文提出了一类适用于求解非光滑凸优化问题的修正邻近梯度法.算法的特点是采用一个自适应步长,并且该算法的线性收敛性不需要目标函数的强凸性作为前提.
关键词 非光滑凸优化 修正邻近梯度法 线性收敛性.
下载PDF
我和乘子交替方向法20年 被引量:10
18
作者 何炳生 《运筹学学报》 CSCD 北大核心 2018年第1期1-31,共31页
1997年,交通网络分析方面的问题把作者引进乘子交替方向法(ADMM)的研究领域.近10年来,原本用来求解变分不等式的ADMM在优化计算中被广泛采用,影响越来越大.这里总结了20年来我们在ADMM方面的工作,特别是近10年ADMM在凸优化分裂收缩算法... 1997年,交通网络分析方面的问题把作者引进乘子交替方向法(ADMM)的研究领域.近10年来,原本用来求解变分不等式的ADMM在优化计算中被广泛采用,影响越来越大.这里总结了20年来我们在ADMM方面的工作,特别是近10年ADMM在凸优化分裂收缩算法方面的进展.梳理主要结果,说清来龙去脉.文章利用变分不等式的形式研究凸优化的ADMM类算法,论及的所有方法都能纳入一个简单的预测-校正统一框架.在统一框架下证明算法的收缩性质特别简单.通读,有利于了解ADMM类算法的概貌.仔细阅读,也许就掌握了根据实际问题需要构造分裂算法的基本技巧.也要清醒地看到,ADMM类算法源自增广拉格朗日乘子法(ALM)和邻近点(PPA)算法,它只是便于利用问题的可分离结构,并没有消除ALM和PPA等一阶算法固有的缺点. 展开更多
关键词 凸优化 单调变分不等式 乘子交替方向法 收缩性质 O(1/t) 收敛速率 预测-校正 统一框架
下载PDF
求解可分离凸优化问题的惯性近似松弛交替方向乘子法 被引量:4
19
作者 薛中会 殷倩雯 党亚峥 《上海理工大学学报》 CAS CSCD 北大核心 2022年第2期204-212,共9页
基于交替方向乘子法(ADMM)提出了一种求解可分离凸优化可行问题的惯性近似松弛交替方向乘子法(IPR-ADMM)。新构造的算法不仅具有提高算法收敛性的优势的惯性外推项,而且引入随机变量以随机加速新步长,从而提高算法的灵活性。并在适当的... 基于交替方向乘子法(ADMM)提出了一种求解可分离凸优化可行问题的惯性近似松弛交替方向乘子法(IPR-ADMM)。新构造的算法不仅具有提高算法收敛性的优势的惯性外推项,而且引入随机变量以随机加速新步长,从而提高算法的灵活性。并在适当的假设下,证明了算法的全局迭代收敛性。数值实验结果表明,数据维数取值越大,算法收敛越快,越趋于稳定,且IPRADMM算法的收敛性明显优于扩展的邻近交替方向法(ePADM)。 展开更多
关键词 惯性近似松弛 交替方向乘子法 凸优化 惯性外推 随机加速 全局收敛性
下载PDF
非凸优化问题的一类内部凸逼近法
20
作者 薛声家 韦增欣 《广西大学学报(自然科学版)》 CAS CSCD 1991年第4期9-15,共7页
给出求解带不等式约束的非凸优化问题的一类内部凸逼近法,并在适当的假设条件下,证明了此类方法具有全局收敛性.
关键词 非凸优化 凸逼近法 K-T点
全文增补中
上一页 1 2 下一页 到第
使用帮助 返回顶部