期刊文献+
共找到268篇文章
< 1 2 14 >
每页显示 20 50 100
L_(1)-Smooth SVM with Distributed Adaptive Proximal Stochastic Gradient Descent with Momentum for Fast Brain Tumor Detection
1
作者 Chuandong Qin Yu Cao Liqun Meng 《Computers, Materials & Continua》 SCIE EI 2024年第5期1975-1994,共20页
Brain tumors come in various types,each with distinct characteristics and treatment approaches,making manual detection a time-consuming and potentially ambiguous process.Brain tumor detection is a valuable tool for ga... Brain tumors come in various types,each with distinct characteristics and treatment approaches,making manual detection a time-consuming and potentially ambiguous process.Brain tumor detection is a valuable tool for gaining a deeper understanding of tumors and improving treatment outcomes.Machine learning models have become key players in automating brain tumor detection.Gradient descent methods are the mainstream algorithms for solving machine learning models.In this paper,we propose a novel distributed proximal stochastic gradient descent approach to solve the L_(1)-Smooth Support Vector Machine(SVM)classifier for brain tumor detection.Firstly,the smooth hinge loss is introduced to be used as the loss function of SVM.It avoids the issue of nondifferentiability at the zero point encountered by the traditional hinge loss function during gradient descent optimization.Secondly,the L_(1) regularization method is employed to sparsify features and enhance the robustness of the model.Finally,adaptive proximal stochastic gradient descent(PGD)with momentum,and distributed adaptive PGDwithmomentum(DPGD)are proposed and applied to the L_(1)-Smooth SVM.Distributed computing is crucial in large-scale data analysis,with its value manifested in extending algorithms to distributed clusters,thus enabling more efficient processing ofmassive amounts of data.The DPGD algorithm leverages Spark,enabling full utilization of the computer’s multi-core resources.Due to its sparsity induced by L_(1) regularization on parameters,it exhibits significantly accelerated convergence speed.From the perspective of loss reduction,DPGD converges faster than PGD.The experimental results show that adaptive PGD withmomentumand its variants have achieved cutting-edge accuracy and efficiency in brain tumor detection.Frompre-trained models,both the PGD andDPGD outperform other models,boasting an accuracy of 95.21%. 展开更多
关键词 Support vector machine proximal stochastic gradient descent brain tumor detection distributed computing
下载PDF
Stochastic Gradient Compression for Federated Learning over Wireless Network
2
作者 Lin Xiaohan Liu Yuan +2 位作者 Chen Fangjiong Huang Yang Ge Xiaohu 《China Communications》 SCIE CSCD 2024年第4期230-247,共18页
As a mature distributed machine learning paradigm,federated learning enables wireless edge devices to collaboratively train a shared AI-model by stochastic gradient descent(SGD).However,devices need to upload high-dim... As a mature distributed machine learning paradigm,federated learning enables wireless edge devices to collaboratively train a shared AI-model by stochastic gradient descent(SGD).However,devices need to upload high-dimensional stochastic gradients to edge server in training,which cause severe communication bottleneck.To address this problem,we compress the communication by sparsifying and quantizing the stochastic gradients of edge devices.We first derive a closed form of the communication compression in terms of sparsification and quantization factors.Then,the convergence rate of this communicationcompressed system is analyzed and several insights are obtained.Finally,we formulate and deal with the quantization resource allocation problem for the goal of minimizing the convergence upper bound,under the constraint of multiple-access channel capacity.Simulations show that the proposed scheme outperforms the benchmarks. 展开更多
关键词 federated learning gradient compression quantization resource allocation stochastic gradient descent(sgd)
下载PDF
Efficient and High-quality Recommendations via Momentum-incorporated Parallel Stochastic Gradient Descent-Based Learning 被引量:5
3
作者 Xin Luo Wen Qin +2 位作者 Ani Dong Khaled Sedraoui MengChu Zhou 《IEEE/CAA Journal of Automatica Sinica》 SCIE EI CSCD 2021年第2期402-411,共10页
A recommender system(RS)relying on latent factor analysis usually adopts stochastic gradient descent(SGD)as its learning algorithm.However,owing to its serial mechanism,an SGD algorithm suffers from low efficiency and... A recommender system(RS)relying on latent factor analysis usually adopts stochastic gradient descent(SGD)as its learning algorithm.However,owing to its serial mechanism,an SGD algorithm suffers from low efficiency and scalability when handling large-scale industrial problems.Aiming at addressing this issue,this study proposes a momentum-incorporated parallel stochastic gradient descent(MPSGD)algorithm,whose main idea is two-fold:a)implementing parallelization via a novel datasplitting strategy,and b)accelerating convergence rate by integrating momentum effects into its training process.With it,an MPSGD-based latent factor(MLF)model is achieved,which is capable of performing efficient and high-quality recommendations.Experimental results on four high-dimensional and sparse matrices generated by industrial RS indicate that owing to an MPSGD algorithm,an MLF model outperforms the existing state-of-the-art ones in both computational efficiency and scalability. 展开更多
关键词 Big data industrial application industrial data latent factor analysis machine learning parallel algorithm recommender system(RS) stochastic gradient descent(sgd)
下载PDF
求解一类非光滑凸优化问题的相对加速SGD算法
4
作者 张文娟 冯象初 +2 位作者 肖锋 黄姝娟 李欢 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2024年第3期147-157,共11页
一阶优化算法由于其计算简单、代价小,被广泛应用于机器学习、大数据科学、计算机视觉等领域,然而,现有的一阶算法大多要求目标函数具有Lipschitz连续梯度,而实际中的很多应用问题不满足该要求。在经典的梯度下降算法基础上,引入随机和... 一阶优化算法由于其计算简单、代价小,被广泛应用于机器学习、大数据科学、计算机视觉等领域,然而,现有的一阶算法大多要求目标函数具有Lipschitz连续梯度,而实际中的很多应用问题不满足该要求。在经典的梯度下降算法基础上,引入随机和加速,提出一种相对加速随机梯度下降算法。该算法不要求目标函数具有Lipschitz连续梯度,而是通过将欧氏距离推广为Bregman距离,从而将Lipschitz连续梯度条件减弱为相对光滑性条件。相对加速随机梯度下降算法的收敛性与一致三角尺度指数有关,为避免调节最优一致三角尺度指数参数的工作量,给出一种自适应相对加速随机梯度下降算法。该算法可自适应地选取一致三角尺度指数参数。对算法收敛性的理论分析表明,算法迭代序列的目标函数值收敛于最优目标函数值。针对Possion反问题和目标函数的Hessian阵算子范数随变量范数多项式增长的极小化问题的数值实验表明,自适应相对加速随机梯度下降算法和相对加速随机梯度下降算法的收敛性能优于相对随机梯度下降算法。 展开更多
关键词 凸优化 非光滑优化 相对光滑 随机规划 梯度方法 加速随机梯度下降
下载PDF
Differentially private SGD with random features
5
作者 WANG Yi-guang GUO Zheng-chu 《Applied Mathematics(A Journal of Chinese Universities)》 SCIE CSCD 2024年第1期1-23,共23页
In the realm of large-scale machine learning,it is crucial to explore methods for reducing computational complexity and memory demands while maintaining generalization performance.Additionally,since the collected data... In the realm of large-scale machine learning,it is crucial to explore methods for reducing computational complexity and memory demands while maintaining generalization performance.Additionally,since the collected data may contain some sensitive information,it is also of great significance to study privacy-preserving machine learning algorithms.This paper focuses on the performance of the differentially private stochastic gradient descent(SGD)algorithm based on random features.To begin,the algorithm maps the original data into a lowdimensional space,thereby avoiding the traditional kernel method for large-scale data storage requirement.Subsequently,the algorithm iteratively optimizes parameters using the stochastic gradient descent approach.Lastly,the output perturbation mechanism is employed to introduce random noise,ensuring algorithmic privacy.We prove that the proposed algorithm satisfies the differential privacy while achieving fast convergence rates under some mild conditions. 展开更多
关键词 learning theory differential privacy stochastic gradient descent random features reproducing kernel Hilbert spaces
下载PDF
FL-EASGD:Federated Learning Privacy Security Method Based on Homomorphic Encryption
6
作者 Hao Sun Xiubo Chen Kaiguo Yuan 《Computers, Materials & Continua》 SCIE EI 2024年第5期2361-2373,共13页
Federated learning ensures data privacy and security by sharing models among multiple computing nodes instead of plaintext data.However,there is still a potential risk of privacy leakage,for example,attackers can obta... Federated learning ensures data privacy and security by sharing models among multiple computing nodes instead of plaintext data.However,there is still a potential risk of privacy leakage,for example,attackers can obtain the original data through model inference attacks.Therefore,safeguarding the privacy of model parameters becomes crucial.One proposed solution involves incorporating homomorphic encryption algorithms into the federated learning process.However,the existing federated learning privacy protection scheme based on homomorphic encryption will greatly reduce the efficiency and robustness when there are performance differences between parties or abnormal nodes.To solve the above problems,this paper proposes a privacy protection scheme named Federated Learning-Elastic Averaging Stochastic Gradient Descent(FL-EASGD)based on a fully homomorphic encryption algorithm.First,this paper introduces the homomorphic encryption algorithm into the FL-EASGD scheme to preventmodel plaintext leakage and realize privacy security in the process ofmodel aggregation.Second,this paper designs a robust model aggregation algorithm by adding time variables and constraint coefficients,which ensures the accuracy of model prediction while solving performance differences such as computation speed and node anomalies such as downtime of each participant.In addition,the scheme in this paper preserves the independent exploration of the local model by the nodes of each party,making the model more applicable to the local data distribution.Finally,experimental analysis shows that when there are abnormalities in the participants,the efficiency and accuracy of the whole protocol are not significantly affected. 展开更多
关键词 Federated learning homomorphic encryption privacy security stochastic gradient descent
下载PDF
基于SGDM优化IWOA-CNN的配电网工程造价控制研究 被引量:9
7
作者 李康 鲍刚 +1 位作者 徐瑞 刘毅楷 《广西大学学报(自然科学版)》 CAS 北大核心 2023年第3期692-702,共11页
为了控制配电网工程项目的成本,需准确预测配电网工程造价,本文提出一种基于带动量因子的随机梯度下降(stochastic gradient descent with momentum factor, SGDM)优化的改进鲸鱼算法-卷积神经网络工程造价预测模型。首先,考虑回路数、... 为了控制配电网工程项目的成本,需准确预测配电网工程造价,本文提出一种基于带动量因子的随机梯度下降(stochastic gradient descent with momentum factor, SGDM)优化的改进鲸鱼算法-卷积神经网络工程造价预测模型。首先,考虑回路数、杆塔数、导线、地形、地质、风速、覆冰、导线截面、混凝土杆、塔材、绝缘子(直线)、绝缘子(耐张)、基坑开方、基础钢材、底盘和水泥对配电网工程造价的影响,建立了非线性函数关系;采用SGDM优化器改进的卷积神经网络对函数进行逼近,并用贝叶斯方法优化卷积神经网络的超参数;利用改进的鲸鱼算法(improved whale optimization algorithm, IWOA)优化卷积神经网络,找出卷积神经网络的最优学习率。数值算例表明,新模型预测效果较好,并提出相应的控制策略。 展开更多
关键词 配电网工程造价 鲸鱼算法 卷积神经网络 随机梯度下降优化器 贝叶斯优化 非线性收敛因子 自适应权重
下载PDF
基于SGD算法优化的BP神经网络围岩参数反演模型研究 被引量:1
8
作者 孙泽 宋战平 +1 位作者 岳波 杨子凡 《隧道建设(中英文)》 CSCD 北大核心 2023年第12期2066-2076,共11页
为充分利用现场监测数据所反馈的围岩变形信息,对岩体力学参数进行反演,以贵州省剑河至黎平高速公路TJ-1标段牛练塘隧道为工程背景,选择围岩弹性模量、黏聚力、泊松比及内摩擦角为影响因素,通过设计正交试验及有限元模拟,获取25组围岩... 为充分利用现场监测数据所反馈的围岩变形信息,对岩体力学参数进行反演,以贵州省剑河至黎平高速公路TJ-1标段牛练塘隧道为工程背景,选择围岩弹性模量、黏聚力、泊松比及内摩擦角为影响因素,通过设计正交试验及有限元模拟,获取25组围岩物理力学参数组合及其对应的拱顶沉降值和拱腰收敛模拟值。基于随机梯度下降算法(stochastic gradient descent algorithm,简称SGD算法)对传统BP神经网络模型进行改进,建立以拱顶沉降值和拱腰收敛值为输入参数,以围岩弹性模量、黏聚力、泊松比及内摩擦角为输出值的基于SGD算法优化的BP神经网络模型,实现围岩参数的反演分析。将反演所得的围岩参数代入有限元模型,验证优化BP神经网络模型的可行性和准确性。最后,分析围岩变形及初期支护受力特性并给出施工建议。结果表明:1)基于SGD算法优化的BP神经网络模型计算得出的拱顶沉降值、拱腰收敛值、拱肩收敛值与现场实测值的相对误差率在2.50%~24.01%,均低于传统BP神经网络模型计算得出的误差率(11.51%~93.71%),验证优化BP神经网络模型的可行性和优越性;2)上、下台阶拱脚处的喷层和锚杆有应力集中现象,有破坏风险,建议施工中加强拱脚支护,防止发生工程事故。 展开更多
关键词 隧道工程 围岩参数反演 随机梯度下降算法 神经网络 正交试验法 数值模拟
下载PDF
基于Local SGD的部分同步通信策略
9
作者 魏业鸣 郑美光 《计算机应用研究》 CSCD 北大核心 2023年第12期3754-3759,共6页
Local SGD训练方法用于分布式机器学习以缓解通信瓶颈,但其本地多轮迭代特性使异构集群节点计算时间差距增大,带来较大同步时延与参数陈旧问题。针对上述问题,基于Local SGD方法提出了一种动态部分同步通信策略(LPSP),该方法利用两层决... Local SGD训练方法用于分布式机器学习以缓解通信瓶颈,但其本地多轮迭代特性使异构集群节点计算时间差距增大,带来较大同步时延与参数陈旧问题。针对上述问题,基于Local SGD方法提出了一种动态部分同步通信策略(LPSP),该方法利用两层决策充分发挥Local SGD本地迭代优势。在节点每轮迭代计算结束后,基于本地训练情况判断通信可能性,并在全局划分同步集合以最小化同步等待时延,减少Local SGD通信开销并有效控制straggler负面影响。实验表明LPSP可以在不损失训练精确度的情况下实现最高0.75~1.26倍的加速,此外,最高还有5.14%的精确度提升,可以有效加速训练收敛。 展开更多
关键词 分布式机器学习 随机梯度下降 参数服务器 部分同步
下载PDF
基于DSGD的分布式电磁目标识别
10
作者 王宏安 黄达 +4 位作者 张伟 潘晔 王祥丰 邵怀宗 顾杰 《系统工程与电子技术》 EI CSCD 北大核心 2023年第10期3024-3031,共8页
分布式电磁目标识别利用分布式最优化和分布式计算等技术实现传统集中式电磁目标识别。分布式最优化方法结合分布式计算架构实现对最优化问题的分布式求解,以分布式实现从问题信息、数据到最优目标识别模型的映射。利用去中心化随机梯... 分布式电磁目标识别利用分布式最优化和分布式计算等技术实现传统集中式电磁目标识别。分布式最优化方法结合分布式计算架构实现对最优化问题的分布式求解,以分布式实现从问题信息、数据到最优目标识别模型的映射。利用去中心化随机梯度下降方法这一经典分布式最优化方法,建立面向电磁目标识别的分布式计算架构和分布式电磁目标识别方法。实际电磁信号数据验证了所提算法的有效性。在分布式电磁目标识别算法与集中式识别算法性能均保持在90%以上时,单节点训练时间下降50%以上,显著提升了训练效率。 展开更多
关键词 电磁目标识别 分布式 去中心化 随机梯度下降 一致性约束
下载PDF
分布式训练系统及其优化算法综述 被引量:3
11
作者 王恩东 闫瑞栋 +1 位作者 郭振华 赵雅倩 《计算机学报》 EI CAS CSCD 北大核心 2024年第1期1-28,共28页
人工智能利用各种优化技术从海量训练样本中学习关键特征或知识以提高解的质量,这对训练方法提出了更高要求.然而,传统单机训练无法满足存储与计算性能等方面的需求.因此,利用多个计算节点协同的分布式训练系统成为热点研究方向之一.本... 人工智能利用各种优化技术从海量训练样本中学习关键特征或知识以提高解的质量,这对训练方法提出了更高要求.然而,传统单机训练无法满足存储与计算性能等方面的需求.因此,利用多个计算节点协同的分布式训练系统成为热点研究方向之一.本文首先阐述了单机训练面临的主要挑战.其次,分析了分布式训练系统亟需解决的三个关键问题.基于上述问题归纳了分布式训练系统的通用框架与四个核心组件.围绕各个组件涉及的技术,梳理了代表性研究成果.在此基础之上,总结了基于并行随机梯度下降算法的中心化与去中心化架构研究分支,并对各研究分支优化算法与应用进行综述.最后,提出了未来可能的研究方向. 展开更多
关键词 分布式训练系统 (去)中心化架构 中心化架构算法 (异)同步算法 并行随机梯度下降 收敛速率
下载PDF
面向线束预装配的多约束线束布局方法研究
12
作者 罗月童 彭俊 +3 位作者 高景一 罗睿明 陈绩 周波 《图学学报》 CSCD 北大核心 2024年第1期139-147,共9页
线束由一组线束段按树状结构连接而成,是飞机汽车等产品中连接各电气设备的接线部件。为提高安装效率,复杂线束需要在线束工装板图上进行预安装,即根据角度、距离、交叉、边界等工艺约束在工装板上摆放线束,是一个多约束下的线束布局问... 线束由一组线束段按树状结构连接而成,是飞机汽车等产品中连接各电气设备的接线部件。为提高安装效率,复杂线束需要在线束工装板图上进行预安装,即根据角度、距离、交叉、边界等工艺约束在工装板上摆放线束,是一个多约束下的线束布局问题。通过借鉴图布局算法,将线束布局转换为优化问题,并采用随机梯度下降法SGD每次随机挑选一对线束段进行优化,逐步迭代收敛。因为线束段是长度不变的刚体,所以移动一根线束段时会带动相连的其他线束段,进而导致SGD迭代过程出现震荡,难以收敛。通过提出双向传递的线束段移动算法,在保证线束段能移动到目标位置的同时尽量少相连线束段的变动。使用合成线束案例和某真实飞机线束案例进行有效性验证,结果表明各工艺约束能均能得到满足,符合线束预装配的生产要求。 展开更多
关键词 线束布局 图布局 随机梯度下降 多约束 预装配
下载PDF
基于算力-能量全分布式在线共享的5G网络负荷管理策略
13
作者 孙毅 陈恺 +4 位作者 郑顺林 王文婷 于芃 李开灿 董文秀 《电力系统保护与控制》 EI CSCD 北大核心 2024年第9期154-165,共12页
5G与边缘计算等信息基础设施海量部署造成运营商用电成本上升,需推动边缘网络与电网的能量互动以节能降本。现有研究重点关注边缘网络参与日前经济调度,未考虑可再生能源和网络流量双重随机性造成的网络能量供需不平衡问题。针对强随机... 5G与边缘计算等信息基础设施海量部署造成运营商用电成本上升,需推动边缘网络与电网的能量互动以节能降本。现有研究重点关注边缘网络参与日前经济调度,未考虑可再生能源和网络流量双重随机性造成的网络能量供需不平衡问题。针对强随机环境下的网络负荷管理问题,提出面向虚拟化边缘网络的能量实时管理策略。首先,以网络用能成本最小化为目标,构建联合网络资源管理、储能充放电与能量共享模型。其次,针对未来网络信息未知无法直接求解的问题,提出基于随机对偶次梯度法的在线管理策略。然后,针对资源共享涉及运营商隐私问题,提出全分布式的计算资源与能量协同共享算法。最后,仿真验证表明,所提在线算法在无需先验知识的前提下有效减少了5G边缘网络的用能成本。 展开更多
关键词 5G通信 在线调度 信息能量耦合 资源共享 随机对偶次梯度法 联邦梯度下降法
下载PDF
激光相干合成系统中SPGD算法的分阶段自适应优化
14
作者 郑文慧 祁家琴 +6 位作者 江文隽 谭贵元 胡奇琪 高怀恩 豆嘉真 邸江磊 秦玉文 《红外与激光工程》 EI CSCD 北大核心 2024年第9期303-315,共13页
为改善传统随机并行梯度下降(Stochastic Parallel Gradient Descent,SPGD)算法应用于大规模激光相干合成系统时收敛速度慢且易陷入局部最优解的情况,提出了一种分阶段自适应增益SPGD算法-Staged SPGD算法。该算法根据性能评价函数值,... 为改善传统随机并行梯度下降(Stochastic Parallel Gradient Descent,SPGD)算法应用于大规模激光相干合成系统时收敛速度慢且易陷入局部最优解的情况,提出了一种分阶段自适应增益SPGD算法-Staged SPGD算法。该算法根据性能评价函数值,在不同收敛时期采用不同策略对增益系数进行自适应调整,同时引入含梯度更新因子的控制电压更新策略,在加快收敛速度的同时减少算法陷入局部极值的概率。实验结果表明:在19路激光相干合成系统中,与传统SPGD算法相比,Staged SPGD算法的收敛速度提升了36.84%,针对不同频率和幅度的相位噪声,算法也具有较优的收敛效果,且稳定性得到显著提升。此外,将Staged SPGD算法直接应用于37、61、91路相干合成系统时,Staged SPGD算法相比传统SPGD算法收敛速度分别提升了37.88%、40.85%和41.10%,提升效果随相干合成单元数增加而更加显著,表明该算法在收敛速度、稳定性和扩展性方面均具有一定优势,具备扩展到大规模相干合成系统的潜力。 展开更多
关键词 激光相干合成 相位控制 随机并行梯度下降算法 SPGD算法
下载PDF
基于多层次随机梯度下降的大规模图布局算法
15
作者 周颖鑫 李学俊 +4 位作者 吴亚东 张红英 王娇 张秋梅 王桂娟 《计算机应用研究》 CSCD 北大核心 2024年第11期3394-3400,共7页
大规模图布局问题是图可视化领域研究热点之一。应力布局模型在保持全局布局结构方面表现出色,然而其求解速度却不及弹簧电荷模型,且局部布局质量也有所欠缺。在维持全局结构稳定条件下,为提高应力模型求解大规模图时的布局速度、改进... 大规模图布局问题是图可视化领域研究热点之一。应力布局模型在保持全局布局结构方面表现出色,然而其求解速度却不及弹簧电荷模型,且局部布局质量也有所欠缺。在维持全局结构稳定条件下,为提高应力模型求解大规模图时的布局速度、改进布局局部结构表达,提出了一个新的多层次随机梯度下降图布局模型。首先利用基于邻居结构的图压缩合并算法生成层次图结构,再使用节点最优放置算法初始化节点坐标。最后利用融合了节点正负样本的随机梯度下降算法细化布局,改进局部布局质量。同时多层次方法也有效提高了布局速度。在30个不同规模的数据集上与现有布局模型进行对比实验,从布局计算效率、布局质量以及可视化效果三个方面证明了该方法的有效性。 展开更多
关键词 大规模图布局 应力模型 随机梯度下降 多层次布局 图可视化
下载PDF
基于集成重要性采样的随机梯度下降算法
16
作者 张浩 鲁淑霞 《南京理工大学学报》 CAS CSCD 北大核心 2024年第3期342-350,共9页
许多机器学习和深度学习问题都可以使用随机梯度优化算法求解,目前流行的算法大多通过均匀采样从样本集中抽取样本计算梯度估计。然而,随机采样的梯度估计会带来较大的方差,这个方差会随着优化的进行而累积,降低算法收敛速度。为缓解这... 许多机器学习和深度学习问题都可以使用随机梯度优化算法求解,目前流行的算法大多通过均匀采样从样本集中抽取样本计算梯度估计。然而,随机采样的梯度估计会带来较大的方差,这个方差会随着优化的进行而累积,降低算法收敛速度。为缓解这一现象,可以为每个样本赋予不同的采样概率。该文基于集成学习的思想,提出了一种新的选取非均匀采样分布的算法。算法的主要目的是选取一个采样器权重,使梯度估计的方差尽可能小。所提算法由多个简单采样器组成,采样权重为每个简单采样器分配贡献权重,从而得到最终的采样分布。集成重要性采样算法可以和以往的随机梯度优化方法任意结合,该文给出了使用集成重要性采样的随机梯度下降算法。在试验中,可以直观地看到算法起效的原因。在真实数据集中,展示了所提算法减小方差的效果,与其他算法相比具有一定优势。 展开更多
关键词 集成学习 重要性采样 采样器 随机梯度下降 方差减少
下载PDF
基于多目标异权重回归的冷水机组故障诊断显式模型
17
作者 吴孔瑞 韩华 +2 位作者 杨钰婷 陆海龙 凌敏彬 《制冷学报》 CAS CSCD 北大核心 2024年第1期118-128,共11页
针对冷水机组中常见的7种故障,本文基于交叉熵损失函数和随机梯度下降算法建立了多目标异权重回归模型,进行故障诊断。该模型较常规的机器学习分类模型简单,无需迭代,计算速度快,且为显式模型(非黑箱),可直观分析各参数对每类故障的重... 针对冷水机组中常见的7种故障,本文基于交叉熵损失函数和随机梯度下降算法建立了多目标异权重回归模型,进行故障诊断。该模型较常规的机器学习分类模型简单,无需迭代,计算速度快,且为显式模型(非黑箱),可直观分析各参数对每类故障的重要程度。与传统的单目标回归模型相比,故障诊断性能优势显著,在不同特征集合下,性能最低提升40.50%。对比不同文献中特征集合在本模型中的效果,并提出了新的特征集合,正常运行及7类故障的总体诊断准确率可达89.83%,局部故障的诊断准确率达到98%以上。通过可视化诊断模型中的参数权重,发现过冷度和供油温度参数对诊断制冷剂泄漏、制冷剂过充和润滑油过量3种系统性故障最为重要;供油压力、冷凝器趋近温度、蒸发器与冷凝器的水流量参数对诊断4种局部故障最为重要。 展开更多
关键词 冷水机组 故障诊断 显式模型 交叉熵 随机梯度下降
下载PDF
基于自适应组合窗函数的SPWVD算法及应用研究
18
作者 李泫陶 陈友兴 +2 位作者 吴其洲 赵霞 贾蓓 《舰船电子工程》 2024年第2期29-34,共6页
针对平滑伪Wigller-Ville分布(Smoothing Pseudo-Winger-Ville distribution,SPWVD)在处理不同信号时,需要采用对应的平滑窗参数才能达到最优时频分布的问题,提出了一种基于自适应组合窗函数的SPWVD算法。该算法将Rényi熵作为时频... 针对平滑伪Wigller-Ville分布(Smoothing Pseudo-Winger-Ville distribution,SPWVD)在处理不同信号时,需要采用对应的平滑窗参数才能达到最优时频分布的问题,提出了一种基于自适应组合窗函数的SPWVD算法。该算法将Rényi熵作为时频评价指标,以组合窗函数的窗长和系数作为参数库,提出将随机梯度下降和扰动随机梯度下降分别用于窗长和系数的选取,提升计算速度分别为遍历法的20倍和9倍,最终得到信号的最优时频图。将上述的改进方法应用于碳纤维复合材料的缺陷检测中,结果表明,自适应组合窗函数的SPWVD可以有效地对不同信号选取最优的窗函数参数,对比固定窗函数的SPWVD,自适应组合窗函数的SPWVD具有更好的时频聚集效果,更加完备地对信号进行了表征,并对缺陷进行了定量分析,具备缺陷检测的良好应用前景。 展开更多
关键词 平滑伪Wigller-Ville分布(SPWVD) 组合窗函数 随机梯度下降(sgd) 扰动随机梯度下降(Psgd) 碳纤维复合材料(CFRP)
下载PDF
桥梁实景三维高斯辐射场建模
19
作者 马威 涂强 +3 位作者 潘建平 赵立都 涂伟 李清泉 《测绘学报》 EI CSCD 北大核心 2024年第9期1694-1705,共12页
实景三维和数字孪生已成为桥梁运维和管理的重要基础,然而面对桥梁的复杂几何结构,现有三维建模方法存在原始数据采集量大、建模效率低、模型细节缺失或变形等问题。对此,本文研究了一种基于3D高斯辐射场的桥梁实景三维重建方法。利用3... 实景三维和数字孪生已成为桥梁运维和管理的重要基础,然而面对桥梁的复杂几何结构,现有三维建模方法存在原始数据采集量大、建模效率低、模型细节缺失或变形等问题。对此,本文研究了一种基于3D高斯辐射场的桥梁实景三维重建方法。利用3D高斯函数对采集图像生成的稀疏点云构建高斯辐射场,并基于随机梯度下降对辐射场参数进行自适应优化,通过可微光栅渲染对三维模型进行实时可视化,从而实现高质量桥梁三维重建和渲染。试验探讨了不同图像分辨率,以及各项参数变化对桥梁建模的影响,并与传统方法作对比,为进一步针对桥梁的应用提供理论和技术支撑,推动桥梁复杂结构的高效、准确实景三维重建。 展开更多
关键词 3D高斯辐射场 桥梁实景三维重建 随机梯度下降 可微光栅渲染
下载PDF
基于频率分解的机器学习模型预测效果比较
20
作者 陈煜之 李心悦 方毅 《统计与决策》 CSSCI 北大核心 2024年第12期29-34,共6页
文章引入一种小波变换与机器学习的组合预测方法,通过小波变换提取单变量时间序列的主要特征,并应用不同的机器学习模型进行预测分析。构建不同类型的机器学习模型对上证指数、恒生指数、纳斯达克指数和日经225指数进行预测,结果表明:... 文章引入一种小波变换与机器学习的组合预测方法,通过小波变换提取单变量时间序列的主要特征,并应用不同的机器学习模型进行预测分析。构建不同类型的机器学习模型对上证指数、恒生指数、纳斯达克指数和日经225指数进行预测,结果表明:在不增加任何被解释变量的情况下,经过小波变换的数据特征能较好地预测指数收益率;通过比较线性模型、机器学习模型和深度学习模型发现,线性模型在捕获小波变换特征方面表现最好;有效的数据降维方法是提高非线性模型样本外预测精度的重要手段,并且可以减少模型训练的时间;小波变换和贝叶斯混合模型的预测精度高于传统的ARMA模型。 展开更多
关键词 深度神经网络 随机梯度下降 长短期记忆神经网络 小波变换 随机森林
下载PDF
上一页 1 2 14 下一页 到第
使用帮助 返回顶部