期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于序列线性组合的原始–对偶算法
1
作者 颜鲁林 常小凯 《工程数学学报》 CSCD 北大核心 2023年第2期321-331,共11页
双线性鞍点问题及其对应的原问题和对偶问题在信号图像处理、机器学习、统计和高维数据处理等领域具有重要的应用,原始对偶算法是求解该类问题的有效算法。利用序列的线性组合技术,改进了Chambolle-Pock原始对偶算法子问题的求解,提出... 双线性鞍点问题及其对应的原问题和对偶问题在信号图像处理、机器学习、统计和高维数据处理等领域具有重要的应用,原始对偶算法是求解该类问题的有效算法。利用序列的线性组合技术,改进了Chambolle-Pock原始对偶算法子问题的求解,提出了一种求解双线性鞍点问题的新原始对偶算法。该算法也是Arrow-Hurwicz算法的修正,在子问题求解中将线性组合和经典的外插技术进行结合,得到了更一般的收敛性。利用变分分析证明了算法的收敛性和遍历■(1/N)收敛率,获得了保证算法收敛的步长和组合参数取值范围,求解非负最小二乘和Lasso问题的数值实验验证了算法的有效性。 展开更多
关键词 双线性鞍点问题 原始–对偶算法 序列的线性组合 收敛率
下载PDF
基于两阶段随机优化的电能量与深度调峰融合市场出清模型及定价方法
2
作者 姜正庭 王建学 +3 位作者 肖云鹏 严新华 刘祺 叶露遥 《电网技术》 EI CSCD 北大核心 2023年第9期3597-3607,共11页
高效的电力市场机制是新型电力系统构建的重要支撑。深度调峰辅助服务市场,作为我国提出的特色电力市场,已从两个方面取得丰硕成果,一是促进了火电机组改造,全系统深调能力的增加,二是通过交易促进了新能源消纳。近年来,各省逐步引入现... 高效的电力市场机制是新型电力系统构建的重要支撑。深度调峰辅助服务市场,作为我国提出的特色电力市场,已从两个方面取得丰硕成果,一是促进了火电机组改造,全系统深调能力的增加,二是通过交易促进了新能源消纳。近年来,各省逐步引入现货电能量市场,在此情况下,深度调峰市场如何与其适应成为亟待解决的问题。文章基于两阶段随机优化方法,建立了一种考虑深度调峰交易的市场出清及原始对偶非凸定价模型。其中,市场第一阶段为日前电能量市场出清,第二阶段考虑新能源随机性后,进行实时市场的电能量调整、深度调峰交易。此外,针对传统定价方法未考虑启动成本造成火电机组亏损的问题,基于原始对偶定价模型,引入了火电机组成本回收约束,保证机组收益从而引导市场健康有序发展。最后,采用ROTS算例系统,分析了所提方法和模型的适用性。 展开更多
关键词 现货电能量市场 深度调峰交易 两阶段建模 原始–对偶定价
下载PDF
分布式一致性最优化的梯度算法与收敛分析 被引量:1
3
作者 梁舒 彭开香 《工程科学学报》 EI CSCD 北大核心 2020年第4期434-440,共7页
研究了多智能体网络中受集合约束的一致性最优化问题,提出了基于原始–对偶梯度的定步长分布式算法.算法中包括步长在内的参数会影响收敛性,需要先进行收敛分析,再根据收敛条件设置合适的参数.本文首先针对一般的定步长迭代格式,提出一... 研究了多智能体网络中受集合约束的一致性最优化问题,提出了基于原始–对偶梯度的定步长分布式算法.算法中包括步长在内的参数会影响收敛性,需要先进行收敛分析,再根据收敛条件设置合适的参数.本文首先针对一般的定步长迭代格式,提出一种基于李雅普诺夫函数的收敛分析范式,它类似于一般微分方程关于李雅普诺夫稳定的分析方法.然后,针对所考虑的分布式梯度算法,构造了合适的李雅普诺夫函数,并根据收敛条件得到了算法参数设定范围,避免了繁冗复杂的分析论证.本文提出的理论与方法也为其他类型的分布式算法提供了一个框架性、系统性的论证方法. 展开更多
关键词 分布式优化 原始–对偶 收敛分析 李雅普诺夫函数 一致性
下载PDF
一种自适应系统规模的联邦深度学习方法
4
作者 吴宾宾 杨桂松 《建模与仿真》 2024年第4期4507-4514,共8页
在面向复杂任务协作的环境中,通信带宽和计算资源的限制以及对隐私保护的需求共同构成了该研究领域的主要挑战。为了解决这些问题,研究者提出了联邦学习(Federated Learning,FL)框架作为一种解决方案。FL允许多个设备在不直接交换原始... 在面向复杂任务协作的环境中,通信带宽和计算资源的限制以及对隐私保护的需求共同构成了该研究领域的主要挑战。为了解决这些问题,研究者提出了联邦学习(Federated Learning,FL)框架作为一种解决方案。FL允许多个设备在不直接交换原始数据的情况下进行协同模型训练,从而降低了通信需求并保护了数据隐私。然而,一些FL方法采用了全客户端参与的策略,即所有客户端在每一轮中更新其本地模型。这种方法不仅增加了通信次数,而且随着客户端规模的增大,也会导致系统性能下降、响应延迟等问题。因此,本文介绍了一种基于原始–对偶优化的新FL协议(Federated Deep Learning Alternating Direction Method of Multipliers,FDLADMM)。FDLADMM算法利用双变量来引导客户端进行本地训练,减少了设备间的通信次数,优化了模型训练速度,并且随着系统规模增大,无需进行超参数调整即可有效适应。通过实验,本文展示了所提出的方法在通信效率和训练速度方面的优势,并且当系统规模不断调整时,无需进行超参数调整即可有效适应。这一创新的方法为应对复杂任务协作中的挑战提供了一种可行且高效的解决方案,并有望在未来的研究和实践中得到广泛应用。 展开更多
关键词 联邦学习(FL) 系统自适应 原始–对偶优化 FDLADMM
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部