期刊文献+
共找到220篇文章
< 1 2 11 >
每页显示 20 50 100
一类自适应梯度裁剪的差分隐私随机梯度下降算法
1
作者 张家棋 李觉友 《运筹学学报(中英文)》 CSCD 北大核心 2024年第2期47-57,共11页
梯度裁剪是一种防止梯度爆炸的有效方法,但梯度裁剪参数的选取通常对训练模型的性能有较大的影响。为此,本文针对标准的差分隐私随机梯度下降算法进行改进。首先,提出一种自适应的梯度裁剪方法,即在传统裁剪方法基础上利用分位数和指数... 梯度裁剪是一种防止梯度爆炸的有效方法,但梯度裁剪参数的选取通常对训练模型的性能有较大的影响。为此,本文针对标准的差分隐私随机梯度下降算法进行改进。首先,提出一种自适应的梯度裁剪方法,即在传统裁剪方法基础上利用分位数和指数平均策略对梯度裁剪参数进行自适应动态调整,进而提出一类自适应梯度裁剪的差分隐私随机梯度下降算法。其次,在非凸目标函数的情况下对提出的自适应算法给出收敛性分析和隐私性分析。最后,在MNIST、Fasion-MNIST和IMDB数据集上进行数值仿真。其结果表明,与传统梯度裁剪算法相比,本文提出的自适应梯度裁剪算法显著提高了模型精度。 展开更多
关键词 随机梯度下降算法 差分隐私 梯度裁剪 自适应
下载PDF
带有校正项的自适应梯度下降优化算法
2
作者 黄建勇 周跃进 《哈尔滨商业大学学报(自然科学版)》 CAS 2024年第2期200-207,共8页
基于批处理的随机梯度下降(SGD)优化算法通常用于训练卷积神经网络(CNNs),其性能的优劣直接影响神经网络收敛的速度.近年来,一些自适应梯度下降优化算法被提出,如Adam、Radam算法等.然而,这些优化算法既没有利用历史迭代的梯度范数,也... 基于批处理的随机梯度下降(SGD)优化算法通常用于训练卷积神经网络(CNNs),其性能的优劣直接影响神经网络收敛的速度.近年来,一些自适应梯度下降优化算法被提出,如Adam、Radam算法等.然而,这些优化算法既没有利用历史迭代的梯度范数,也没有利用随机子样本中梯度的二阶矩,这些导致自适应梯度下降优化算法收敛速度较慢,性能也不稳定.结合历史梯度范数和梯度的二阶矩,提出了一种新的自适应梯度下降优化算法normEve.通过模拟仿真实验,实验结果表明,提出的新算法在结合历史梯度范数和梯度二阶矩的情形下能有效地提高算法的收敛速度.通过实例验证新算法与Adam优化算法比较,新算法的测试准确率大于Adam优化算法,验证了新算法的优越性. 展开更多
关键词 梯度下降 神经网络 梯度范数 自适应学习 分类 优化算法
下载PDF
基于鲁棒控制的自适应分数阶梯度优化算法设计
3
作者 刘佳旭 陈嵩 +2 位作者 蔡声泽 许超 褚健 《控制理论与应用》 EI CAS CSCD 北大核心 2024年第7期1187-1196,共10页
当目标函数是强凸函数时,一般的分数阶梯度下降法不能够使函数收敛到最小值点,只能收敛到一个包含最小值点的区域内或者是发散的.为了解决这个问题,本文提出了自适应分数阶梯度下降法(AFOGD)和自适应分数阶加速梯度下降法(AFOAGD)两种... 当目标函数是强凸函数时,一般的分数阶梯度下降法不能够使函数收敛到最小值点,只能收敛到一个包含最小值点的区域内或者是发散的.为了解决这个问题,本文提出了自适应分数阶梯度下降法(AFOGD)和自适应分数阶加速梯度下降法(AFOAGD)两种新的优化算法.受到鲁棒控制理论中二次约束和李雅普诺夫稳定性理论的启发,建立了一个线性矩阵不等式去分析所提出的算法的收敛性.当目标函数是L-光滑且m-强凸时,算法可以达到R线性收敛.最后几个数值仿真证明了算法的有效性和优越性. 展开更多
关键词 梯度下降 自适应算法 鲁棒控制 分数阶微积分 加速算法
下载PDF
适应度反向学习的平衡灰狼算法及其应用
4
作者 杨宸 张玮 +2 位作者 许鑫 张振喜 高暾 《计算机工程与设计》 北大核心 2024年第4期1047-1055,共9页
针对传统灰狼优化算法位置更新时勘探与开发失衡,收敛速度慢且陷入局部最优的问题,提出一种改进的灰狼算法(balanced grey wolf algorithm based on fitness back learning,BGWO),引入非线性控制参数,增强算法前期勘探能力,加速收敛;在... 针对传统灰狼优化算法位置更新时勘探与开发失衡,收敛速度慢且陷入局部最优的问题,提出一种改进的灰狼算法(balanced grey wolf algorithm based on fitness back learning,BGWO),引入非线性控制参数,增强算法前期勘探能力,加速收敛;在种群迭代阶段采用重心反向学习的最优适应度权重更新策略,平衡算法的勘探与开发。16组基准函数测试结果表明,改进后算法能自适应跳出局部最优,在加快算法收敛速度的同时提高全局收敛能力与精度。将BGWO应用于PV型旋风分离器粒级效率GBDT(gradient boosting decision tree)的建模,提高了GBDT的精度,模型相关系数0.980,均方误差0.00079,BGWO-GBDT与GBDT、PSO-GBDT和GWO-GBDT相对比,建模精度和稳定性明显提高,验证了BGWO的有效性。 展开更多
关键词 灰狼优化算法 勘探与开发 非线性控制 适应度反向学习 基准函数测试 梯度提升决策树 旋风分离器效率模型
下载PDF
加速随机递归梯度下降算法的复杂度分析
5
作者 费经泰 程一元 查星星 《萍乡学院学报》 2024年第3期5-11,共7页
课题组为进一步降低传统随机递归梯度下降算法(SARAH)复杂度,利用内循环数目倍增技术,提出了一种新的算法--Epoch-Doubling-SARAH算法,并通过构造Lyapunov函数证明了Epoch-Doubling-SARAH算法在非强凸条件下具有线性收敛阶,且推导出了... 课题组为进一步降低传统随机递归梯度下降算法(SARAH)复杂度,利用内循环数目倍增技术,提出了一种新的算法--Epoch-Doubling-SARAH算法,并通过构造Lyapunov函数证明了Epoch-Doubling-SARAH算法在非强凸条件下具有线性收敛阶,且推导出了算法的复杂度为O(1/ε+nlong(1/ε)),该结果优于SARAH算法复杂度。再将Epoch-Doubling-SARAH算法与SARAH算法在Mnist和Mushroom两个数据集上进行对比实验,实验结果表明Epoch-Doubling-SARAH算法具有更快的收敛速度,进而说明了本文算法理论分析的正确性。 展开更多
关键词 机器学习 随机递归梯度 下降算法 循环倍增 收敛速率 算法复杂度
下载PDF
基于深度强化学习的分层自适应PID控制算法
6
作者 余文浩 齐立哲 +1 位作者 梁瀚文 孙云权 《计算机系统应用》 2024年第9期245-252,共8页
比例积分微分(PID)控制在工业控制和机器人控制领域应用非常广泛.然而,其在实际应用中存在参数整定复杂、系统无法精准建模以及对被控对象变化敏感的问题.为了解决这些问题,本文提出了一种基于深度强化学习算法的分层自适应PID控制算法,... 比例积分微分(PID)控制在工业控制和机器人控制领域应用非常广泛.然而,其在实际应用中存在参数整定复杂、系统无法精准建模以及对被控对象变化敏感的问题.为了解决这些问题,本文提出了一种基于深度强化学习算法的分层自适应PID控制算法,即TD3-PID,用于移动机器人的自动控制.其中,上层控制器通过实时观测当前环境状态和系统状态实现对下层PID控制器参数和输出补偿量进行调整,以实时补偿误差从而优化系统性能.本文将所提出的TD3-PID控制器应用于4轮移动机器人轨迹跟踪任务并和其他控制方法进行了真实场景实验对比.结果显示TD3-PID控制器表现出更优越的动态响应性能和抗干扰能力,整体响应误差显著减小,在提高控制系统性能方面具有显著的优势. 展开更多
关键词 深度强化学习 PID算法 自适应控制 确定性策略梯度算法 轨迹跟踪
下载PDF
基于强化学习和梯度下降的智能配餐方法
7
作者 李飞龙 《智能计算机与应用》 2024年第3期104-110,共7页
为更好地解决营养配餐中的组合食材、计算重量等问题,设计了一种基于强化学习与梯度下降的智能配餐方法。通过对营养配餐的原则和方法进行深入研究,采用数学建模方法对整个配餐过程进行建模;根据配餐过程分别对组合食材和计算重量这2个... 为更好地解决营养配餐中的组合食材、计算重量等问题,设计了一种基于强化学习与梯度下降的智能配餐方法。通过对营养配餐的原则和方法进行深入研究,采用数学建模方法对整个配餐过程进行建模;根据配餐过程分别对组合食材和计算重量这2个问题进行建模,并设计相应算法进行求解;设计相关实验,验证该智能配餐方法的可行性和稳定性。实验结果表明,该智能配餐方法不仅可以根据用户偏好食材、健康状况等信息智能地组合食材,还能根据膳食宝塔和营养素均衡等营养学指标,优化出合理的饮食方案,具有一定的应用价值。 展开更多
关键词 健康饮食 配餐方法 智能算法 强化学习 梯度下降
下载PDF
一种修正学习率的梯度下降算法 被引量:1
8
作者 姜文翰 姜志侠 孙雪莲 《长春理工大学学报(自然科学版)》 2023年第6期112-120,共9页
近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数... 近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数加权平均对Adam算法中学习率进行修正,提出了MonAdam算法。通过在线学习框架,说明MonAdam算法具有O(√T)的遗憾界。经过大量实验在多种非凸函数和深度神经网络模型中将MonAdam算法与其他算法进行对比,结果表明该算法收敛性较好。 展开更多
关键词 梯度下降算法 Adam算法 收敛性 遗憾界 学习
下载PDF
带有自适应学习速率的矩阵指数梯度在线量子态估计算法 被引量:1
9
作者 丛爽 汪涛 张坤 《控制理论与应用》 EI CAS CSCD 北大核心 2021年第8期1188-1196,共9页
针对连续弱测量中存在高斯噪声的情况,提出一种带有自适应学习速率的矩阵指数梯度在线量子态估计算法.将量子态估计问题转化为含量子约束的凸优化问题,通过引入Von Neumann散度(量子相对熵),在一阶最优条件下,推导出指数型的量子态迭代... 针对连续弱测量中存在高斯噪声的情况,提出一种带有自适应学习速率的矩阵指数梯度在线量子态估计算法.将量子态估计问题转化为含量子约束的凸优化问题,通过引入Von Neumann散度(量子相对熵),在一阶最优条件下,推导出指数型的量子态迭代公式,保证量子态密度矩阵的半正定性.再通过对迭代结果进行迹为1的投影,得到最终的量子态估计值.同时在迭代公式中设计自适应的学习速率,进一步加快算法的收敛速度.将所提出的算法分别在1,2,3和4个量子位系统上,进行了在线量子态估计的数值仿真实验,并与现有的在线量子态估计算法进行了性能对比.实验结果表明,所提出的算法具有更好的快速收敛性,以及更高的状态估计精度. 展开更多
关键词 量子态在线估计 连续弱测量 矩阵指数梯度算法 自适应学习速率
下载PDF
自适应学习率梯度下降的优化算法 被引量:5
10
作者 宋美佳 贾鹤鸣 +2 位作者 林志兴 卢仁盛 刘庆鑫 《三明学院学报》 2021年第6期36-44,共9页
提出一种自适应学习率优化算法,可以根据损失函数的变化自动调节学习率大小,且能根据损失函数的变化幅度而调节变化程度;结合tanh函数,保证学习率不会因损失函数变化幅度过大而剧烈变化;在收敛后期,可以将学习率保持在一个固定值范围,... 提出一种自适应学习率优化算法,可以根据损失函数的变化自动调节学习率大小,且能根据损失函数的变化幅度而调节变化程度;结合tanh函数,保证学习率不会因损失函数变化幅度过大而剧烈变化;在收敛后期,可以将学习率保持在一个固定值范围,以防止后期学习率变化而导致的收敛速度慢或精度差等问题。利用波士顿房价预测和Mnist手写识别两种数据集进行实验验证,通过对比所提出的改进算法与经典梯度下降优化算法,验证了本文算法的可行性和高效性。 展开更多
关键词 学习 梯度下降 优化算法 自适应
下载PDF
动量自适应学习速率梯度下降法神经网络电力负荷预测 被引量:3
11
作者 关小芳 《电气开关》 2014年第5期49-51,共3页
电力系统负荷预测的精度将直接影响电力系统的经济效益和用电的安全和稳定,是电力负荷预测的重要组成部分。利用人工神经网络可以任意逼近非线性系统的特性,将其用于短期负荷预测。在标准的BP网络中加入了动量项和自适应学习速率,预测... 电力系统负荷预测的精度将直接影响电力系统的经济效益和用电的安全和稳定,是电力负荷预测的重要组成部分。利用人工神经网络可以任意逼近非线性系统的特性,将其用于短期负荷预测。在标准的BP网络中加入了动量项和自适应学习速率,预测结果表明比标准BP算法具有更好的性能。在相同的情况下,连续预测六天的负荷和一年的负荷,结果都证明了研究方法具有一定的实用性。 展开更多
关键词 神经网络 负荷预测 BP算法 动量项 自适应学习速率
下载PDF
非凸-凹极小极大问题的双尺度交替梯度下降上升算法 被引量:1
12
作者 王静 王福胜 覃媛媛 《太原师范学院学报(自然科学版)》 2023年第1期16-20,共5页
针对一类非凸-(强)凹极小极大问题,基于双尺度梯度下降上升算法,用交替梯度更新来替代同步梯度更新,从而提出了一种新算法-双尺度交替梯度下降上升算法.通过数值实验结果表明,新算法在MNIST数据集上的分类准确率明显高于原算法,从而验... 针对一类非凸-(强)凹极小极大问题,基于双尺度梯度下降上升算法,用交替梯度更新来替代同步梯度更新,从而提出了一种新算法-双尺度交替梯度下降上升算法.通过数值实验结果表明,新算法在MNIST数据集上的分类准确率明显高于原算法,从而验证了新算法的有效性. 展开更多
关键词 机器学习 非凸极小极大问题 梯度下降上升算法 单循环算法 交替梯度更新
下载PDF
一种BP网的学习速率与动量项自适应算法 被引量:7
13
作者 宫宁生 钱春阳 张媛 《小型微型计算机系统》 CSCD 北大核心 2013年第8期1872-1876,共5页
针对BP网络学习速率和动量项参数较难选取以及学习过程中学习效率较为低下的问题,提出BP网络的改进算法模型—AB网络模型,来选取学习速率和动量项的参数值,即通过一个为给定先验知识的A网,动态调节另一个执行实际应用的B网中的学习速率... 针对BP网络学习速率和动量项参数较难选取以及学习过程中学习效率较为低下的问题,提出BP网络的改进算法模型—AB网络模型,来选取学习速率和动量项的参数值,即通过一个为给定先验知识的A网,动态调节另一个执行实际应用的B网中的学习速率和动量项的参数值,并以此提高整个网络的学习效率.实验结果表明,通过AB网络自适应调整参数的算法比普通BP算法的学习效率大大提高.在实际应用中,我们可以通过AB网络自适应调节的方法,对学习速率参数和动量项参数进行合适的选取. 展开更多
关键词 AB网络 BP算法 动量项 学习速率 梯度下降
下载PDF
一种带自适应学习率的综合随机梯度下降Q-学习方法 被引量:14
14
作者 金海东 刘全 陈冬火 《计算机学报》 EI CSCD 北大核心 2019年第10期2203-2215,共13页
在线强化学习中,值函数的逼近通常采用随机梯度下降(Stochastic Gradient Descent,SGD)方法.在每个时间步,SGD方法使用强化学习算法获取随机样本,计算损失函数的局部梯度,单次模型参数更新的计算量小,适合在线学习.但是,由于目标函数不... 在线强化学习中,值函数的逼近通常采用随机梯度下降(Stochastic Gradient Descent,SGD)方法.在每个时间步,SGD方法使用强化学习算法获取随机样本,计算损失函数的局部梯度,单次模型参数更新的计算量小,适合在线学习.但是,由于目标函数不同维度存在梯度差异,SGD方法会产生优化震荡,导致迭代次数增多,收敛速度变慢甚至不能收敛.本文提出一种带自适应学习率的综合随机梯度下降方法(Adaptive Learning Rate on Integrated Stochastic Gradient Descent,ALRI-SGD),对SGD做了两方面改进:(1)在基于参数预测的基础上,利用历史随机梯度信息综合计算当前时间步的更新梯度;(2)根据不同维度的历史梯度信息,动态计算每个维度的学习率.在一定的数学约束条件下,证明了ALRI-SGD方法的收敛性.把ALRI-SGD方法与基于线性函数逼近的离策略Q-学习算法结合,用于求解强化学习中经典的Mountain Car问题和平衡杆问题,并与基于SGD的Q-学习算法进行实验比较.实验结果表明,ALRI-SGD方法能动态匹配模型参数在不同维度上的梯度差异,并使学习率自动更新以适应不同维度的数据特征.ALRI-SGD方法在收敛效率和收敛稳定性两个方面都有提升. 展开更多
关键词 强化学习 综合随机梯度下降 自适应学习 参数预测 Q-学习
下载PDF
自适应光学系统随机并行梯度下降算法 被引量:5
15
作者 马慧敏 张鹏飞 +2 位作者 张京会 范承玉 王英俭 《强激光与粒子束》 EI CAS CSCD 北大核心 2010年第6期1206-1210,共5页
随机并行梯度下降(SPGD)算法可以对系统性能指标直接优化来校正畸变波前。对基于SPGD算法的61单元自适应光学系统进行仿真模拟,分析了对不同初始静态畸变波前的校正能力,并比较了不同性能指标情况下的算法增益系数、扰动幅度值的选取... 随机并行梯度下降(SPGD)算法可以对系统性能指标直接优化来校正畸变波前。对基于SPGD算法的61单元自适应光学系统进行仿真模拟,分析了对不同初始静态畸变波前的校正能力,并比较了不同性能指标情况下的算法增益系数、扰动幅度值的选取及校正情况。仿真结果表明:算法收敛速度很大程度上依赖于增益系数和扰动幅度值,对畸变较大的波前,随机扰动幅度在0.50~0.85范围内,性能指标采用焦斑平均半径比采用斯特列尔比取得的校正效果好。 展开更多
关键词 自适应光学 随机并行梯度下降算法 数值仿真 波前畸变
下载PDF
自适应光学随机并行梯度下降算法波前整形规律仿真(英文) 被引量:6
16
作者 王卫兵 王挺峰 郭劲 《中国光学》 EI CAS 2014年第3期411-420,共10页
本文首先介绍了基于Zernike模式的SPGD算法对大气湍流畸变波前的整形原理,通过推导得到了关于性能指标的简明表达式,使SPGD算法收敛速率得到明显提升。然后建立了自适应光学随机并行梯度下降算法波前整形系统模型,主要对SPGD算法收敛速... 本文首先介绍了基于Zernike模式的SPGD算法对大气湍流畸变波前的整形原理,通过推导得到了关于性能指标的简明表达式,使SPGD算法收敛速率得到明显提升。然后建立了自适应光学随机并行梯度下降算法波前整形系统模型,主要对SPGD算法收敛速率、整形能力和整形效果随波前畸变量和变形镜模型的变化规律作了较为详细的仿真研究,整体定性结果表明:三者的变化规律有一定的相似性,同时利用最小二乘法得到了关于整形能力和整形效果变化规律的定量表达式,若从自适应光学波前整形系统的实时性和简单性考虑,在保证一定整形效果的情况下,选择37单元变形镜对畸变波前的3~27(25)阶Zernike像差进行整形即可。 展开更多
关键词 自适应光学波前整形 随机并行梯度下降算法 收敛速率 整形能力 整形效果
下载PDF
BP网络局部学习速率自适应SA算法的改进 被引量:2
17
作者 李波 李赣华 +2 位作者 王成友 蔡宣平 张尔扬 《信号处理》 CSCD 北大核心 2005年第6期615-620,596,共7页
Silva-Almeida(SA)算法是最好的局部学习速率自适应算法之一,在对SA算法进行研究分析的基础上,提出 两项改进措施,使改进后的SA算法较原SA算法震荡现象大大减弱,训练速率有较大加快,训练精度有较大提高。在仿 真实验中,改进的SA算法在... Silva-Almeida(SA)算法是最好的局部学习速率自适应算法之一,在对SA算法进行研究分析的基础上,提出 两项改进措施,使改进后的SA算法较原SA算法震荡现象大大减弱,训练速率有较大加快,训练精度有较大提高。在仿 真实验中,改进的SA算法在一定程度上优于RPROP算法。 展开更多
关键词 局部学习速率自适应 全局学习速率自适应 批训练算法 梯度下降 BP神经网络
下载PDF
基于Zernike模式的自适应光学系统随机并行梯度下降算法 被引量:8
18
作者 杨慧珍 李新阳 《强激光与粒子束》 EI CAS CSCD 北大核心 2009年第5期645-648,共4页
控制算法的收敛速度一定程度上限制了无波前探测自适应光学技术在实时波前畸变校正中的应用。从理论分析角度提出将模式法和区域法结合起来以提高算法收敛速度,并以61单元变形镜为校正器,建立基于随机并行梯度下降算法自适应光学系统仿... 控制算法的收敛速度一定程度上限制了无波前探测自适应光学技术在实时波前畸变校正中的应用。从理论分析角度提出将模式法和区域法结合起来以提高算法收敛速度,并以61单元变形镜为校正器,建立基于随机并行梯度下降算法自适应光学系统仿真模型。结果表明:达到同样的校正效果时,采用组合优化的算法收敛速度要明显优于基于区域法的收敛速度,从而验证了理论分析的合理性。 展开更多
关键词 自适应光学系统 随机并行梯度下降算法 Zernike模式
下载PDF
卷积神经网络中基于差分隐私的动量梯度下降算法 被引量:1
19
作者 张宇 蔡英 +2 位作者 崔剑阳 张猛 范艳芳 《计算机应用》 CSCD 北大核心 2023年第12期3647-3653,共7页
针对卷积神经网络(CNN)模型的训练过程中,模型参数记忆数据部分特征导致的隐私泄露问题,提出一种CNN中基于差分隐私的动量梯度下降算法(DPGDM)。首先,在模型优化的反向传播过程中对梯度添加满足差分隐私的高斯噪声,并用加噪后的梯度值... 针对卷积神经网络(CNN)模型的训练过程中,模型参数记忆数据部分特征导致的隐私泄露问题,提出一种CNN中基于差分隐私的动量梯度下降算法(DPGDM)。首先,在模型优化的反向传播过程中对梯度添加满足差分隐私的高斯噪声,并用加噪后的梯度值参与模型参数的更新过程,从而实现对模型整体的差分隐私保护;其次,为了减少引入差分隐私噪声对模型收敛速度的影响,设计学习率衰减策略,改进动量梯度下降算法;最后,为了降低噪声对模型准确率的影响,在模型优化过程中动态地调整噪声尺度的值,从而改变在每一轮迭代中需要对梯度加入的噪声量。实验结果表明,与DP-SGD(Differentially Private Stochastic Gradient Descent)相比,所提算法可以在隐私预算为0.3和0.5时,模型准确率分别提高约5和4个百分点。可见,所提算法提高了模型的可用性,并实现了对模型的隐私保护。 展开更多
关键词 卷积神经网络 差分隐私 动量梯度下降算法 深度学习 隐私保护
下载PDF
基于动态学习率边界的隐私保护算法
20
作者 钱振 《哈尔滨商业大学学报(自然科学版)》 CAS 2024年第2期186-192,共7页
深度学习优化算法在对数据进行训练时容易导致隐私泄露,卷积神经网络在进行隐私计算时会因为计算每个样本的梯度而带来巨大的内存开销,针对以上问题,提出一种结合混合重影剪裁的差分隐私动态学习率边界算法.将AdaBound优化算法与差分隐... 深度学习优化算法在对数据进行训练时容易导致隐私泄露,卷积神经网络在进行隐私计算时会因为计算每个样本的梯度而带来巨大的内存开销,针对以上问题,提出一种结合混合重影剪裁的差分隐私动态学习率边界算法.将AdaBound优化算法与差分隐私相结合,缓解了算法在训练时的极端学习率和不稳定现象,减少了在反向传播过程中因为加入噪声而对模型收敛速度产生的影响.在卷积层上使用混合重影剪裁,简化了更新中对于梯度的直接计算所带来的开销成本,可以有效地训练差分隐私模型.最后,通过仿真实验,与其他经典的差分隐私算法进行对比,实验表明,算法实现了在相同隐私预算下更高的准确率,具有更优的性能,对模型的隐私保护效果更好. 展开更多
关键词 差分隐私 深度学习 随机梯度下降 图像分类 自适应算法 学习率剪裁
下载PDF
上一页 1 2 11 下一页 到第
使用帮助 返回顶部