期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
可分离凸规划问题的交替邻近梯度法的次线性收敛率
1
作者 叶晓倩 彭建文 《西南师范大学学报(自然科学版)》 CAS 北大核心 2019年第3期12-17,共6页
给出了目标函数为3个凸函数的和且具有线性约束的可分离凸规划问题的交替邻近梯度法在遍历意义下的次线性收敛率为■的一个充分条件.
关键词 可分离凸优化 交替邻近梯度法 线性收敛率
下载PDF
算子分裂法求解一类变分不等式问题的收敛率分析 被引量:1
2
作者 葛志利 蔡邢菊 张欣 《南京师大学报(自然科学版)》 CAS CSCD 北大核心 2020年第1期5-12,共8页
考虑一类变分不等式问题:寻找x^*∈Ω,满足F(x^*)T(x-x^*)≥0,x∈Ω,其中Ω是R n上的闭凸子集,F=f+g是R n到R n的连续算子,f和g单调但f的表达式未知.针对此类应用较广的问题,本文研究了一种新的算子分裂法.根据已有的收敛性结果,进一步... 考虑一类变分不等式问题:寻找x^*∈Ω,满足F(x^*)T(x-x^*)≥0,x∈Ω,其中Ω是R n上的闭凸子集,F=f+g是R n到R n的连续算子,f和g单调但f的表达式未知.针对此类应用较广的问题,本文研究了一种新的算子分裂法.根据已有的收敛性结果,进一步分析了该方法在非遍历意义下O(1/k)和o(1/k)的次线性收敛率,其中k表示迭代步数.最后,通过数值实验展示了算法的有效性. 展开更多
关键词 部分算子未知 单调变分不等式 算子分裂法 线性收敛率
下载PDF
求解多目标优化问题的非单调牛顿法的超线性收敛性 被引量:1
3
作者 任洁 彭建文 《应用数学》 CSCD 北大核心 2022年第4期956-965,共10页
讨论求解无约束多目标优化问题的非单调牛顿法的全局收敛性和局部超线性收敛率.首先,给出由非单调牛顿法生成的步长的下界,再利用求解多目标优化问题的牛顿法的相关结论证明了非单调牛顿法的全局收敛性.其次,在目标函数的海塞矩阵的一... 讨论求解无约束多目标优化问题的非单调牛顿法的全局收敛性和局部超线性收敛率.首先,给出由非单调牛顿法生成的步长的下界,再利用求解多目标优化问题的牛顿法的相关结论证明了非单调牛顿法的全局收敛性.其次,在目标函数的海塞矩阵的一致连续性的条件下证明了非单调牛顿法具有局部超线性收敛率. 展开更多
关键词 多目标优化 非单调线搜索 非单调牛顿法 Pareto平稳性 线性收敛率
下载PDF
一个修正的谱共轭梯度法 被引量:1
4
作者 朱艺轩 宋恩彬 《工程数学学报》 CSCD 北大核心 2023年第4期591-604,共14页
对无约束优化问题进行了研究,提出了一个修正的谱共轭梯度法。该算法的搜索方向是下降方向,在标准的Wolfe-Powell线搜索下具有全局收敛性,且在适当的条件下,证明了该算法具有线性收敛率。对一些标准的测试函数进行了数值实验,数值实验... 对无约束优化问题进行了研究,提出了一个修正的谱共轭梯度法。该算法的搜索方向是下降方向,在标准的Wolfe-Powell线搜索下具有全局收敛性,且在适当的条件下,证明了该算法具有线性收敛率。对一些标准的测试函数进行了数值实验,数值实验结果表明所提算法在算法迭代次数,函数调用次数以及程序运行时间等方面是有效的,且与相关算法相比有一定的优势。最后将该算法应用到图像去噪问题,对经典图像Lena与Camera施加了不同的噪声效果并用该算法进行图像去噪,与文献中相关算法进行了对比,通过信噪比这一指标说明该算法有良好的去噪效果。 展开更多
关键词 共轭梯度法 谱共轭梯度法 全局收敛 线性收敛率 图像去噪问题
下载PDF
求解单调AVI问题的一个新方法
5
作者 董云达 刘甲玉 《数学理论与应用》 2007年第2期122-125,共4页
本文提出了一个求解单调AVI问题的新方法,并在无任何附加条件下,证明了它的收敛性和线性收敛率.
关键词 单调性 AVI问题 收敛 线性收敛率
下载PDF
Nonlinear Programming Algorithm and Its Convergence Rate Analysis
6
作者 王国富 李学全 《Chinese Quarterly Journal of Mathematics》 CSCD 1998年第1期8-13, ,共6页
In this paper,we improve the algorithm proposed by T.F.Colemen and A.R.Conn in paper [1]. It is shown that the improved algorithm is possessed of global convergence and under some conditions it can obtain locally supp... In this paper,we improve the algorithm proposed by T.F.Colemen and A.R.Conn in paper [1]. It is shown that the improved algorithm is possessed of global convergence and under some conditions it can obtain locally supperlinear convergence which is not possessed by the original algorithm. 展开更多
关键词 nonlinear programming exact penalty function algorithm.
下载PDF
一类随机方差缩减算法的分析与改进 被引量:3
7
作者 刘彦 郭田德 韩丛英 《中国科学:数学》 CSCD 北大核心 2021年第9期1433-1450,共18页
近年来,随机方差缩减类算法在求解机器学习中的大规模优化问题时得到了广泛应用.但是如何选择此类算法的合适步长依然是值得研究的问题.受启发于结合Barzilai-Borwein步长的随机方差缩减梯度(stochastic variance reduced gradient with... 近年来,随机方差缩减类算法在求解机器学习中的大规模优化问题时得到了广泛应用.但是如何选择此类算法的合适步长依然是值得研究的问题.受启发于结合Barzilai-Borwein步长的随机方差缩减梯度(stochastic variance reduced gradient with Barzilai-Borwein step size,SVRG-BB)算法,本文针对方差缩减类算法提出基于局部Lipschitz常数估计的自适应步长,并通过构建一个极小极大化问题给出该步长应用于不同算法时的参数选取方法.然后将该步长与随机递归梯度算法(stochastic recursive gradient algorithm,SARAH)和随机方差缩减(stochastic variance reduced gradient,SVRG)算法相结合,分别提出结合自适应步长的随机递归梯度(SARAH with adaptive step size,SARAH-AS)方法和结合自适应步长的随机方差缩减梯度(SVRG with adaptive step size,SVRG-AS)算法,并且在强凸假设下证明以上算法点距离序列的线性收敛性质.此外,本文还提供一个新颖的视角揭示为什么SARAH+算法是有效的.在公开数据集上的数值实验结果表明本文提出的自适应步长在方差缩减类算法中表现良好. 展开更多
关键词 随机方差缩减类算法 自适应步长 线性收敛率
原文传递
NONMRAMETRIC IDENTIFICATION FOR NONLINEAR AUTOREGRESSIVE TIME SERIES MODELS:CONVERGENCE RATES
8
作者 LUZUDI CHENGPING 《Chinese Annals of Mathematics,Series B》 SCIE CSCD 1999年第2期173-184,共12页
In this paper, the optimal convergence rates of estimators based on kernel approach for nonlinear AR model are investigated in the sense of Stone[17,18]. By combining the or mixingproperty of the stationary solution w... In this paper, the optimal convergence rates of estimators based on kernel approach for nonlinear AR model are investigated in the sense of Stone[17,18]. By combining the or mixingproperty of the stationary solution with the characteristics of the model itself, the restrictiveconditions in the literature which are not easy to be satisfied by the nonlinear AR model areremoved, and the mild conditions are obtained to guarantee the optimal rates of the estimatorof autoregression function. In addition, the strongly consistent estimator of the variance ofwhite noise is also constructed. 展开更多
关键词 Nonlinear AR model Optimal convergence rates Kernel approach Autoregression function Variance of white noise CONSISTENCY
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部