期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基础研究与应用研究科学产出及影响因素分析
1
作者 王颖婕 王雪璐 张茜茜 《科技智囊》 2025年第1期62-70,共9页
[研究目的]以科研项目成果产出评价为出发点,探讨项目产出科学价值的影响因素。[研究方法]综合考虑项目论文产出的数量和质量,构建h指数表征其科学价值,并以物理学代表基础研究、以信息学代表应用研究,对比分析自然基金面上项目产出影... [研究目的]以科研项目成果产出评价为出发点,探讨项目产出科学价值的影响因素。[研究方法]综合考虑项目论文产出的数量和质量,构建h指数表征其科学价值,并以物理学代表基础研究、以信息学代表应用研究,对比分析自然基金面上项目产出影响因素。[研究结论]结果显示,物理学和信息学的项目h指数均为8,即平均产出8篇被引次数不小于8的论文,表明基础研究和应用研究的项目科学价值产出并无明显差异。对项目科学价值的影响因素的研究结果表明,项目负责人的学术背景对基金项目科学价值产出有明显的促进作用,并且对于基础研究科学价值产出的影响更大。申请单位的学科声誉对于基础研究有显著的正向影响,而对于应用研究并无显著影响。 展开更多
关键词 学术价值 h指数 影响因素 基础研究 应用研究
下载PDF
基于AdaGrad的自适应NAG方法及其最优个体收敛性 被引量:3
2
作者 陇盛 陶蔚 +1 位作者 张泽东 陶卿 《软件学报》 EI CSCD 北大核心 2022年第4期1231-1243,共13页
与梯度下降法相比,自适应梯度下降方法(AdaGrad)利用过往平方梯度的算数平均保存了历史数据的几何信息,在处理稀疏数据时获得了更紧的收敛界.另一方面,Nesterov加速梯度方法(Nesterov’saccelerated gradient,NAG)在梯度下降法的基础上... 与梯度下降法相比,自适应梯度下降方法(AdaGrad)利用过往平方梯度的算数平均保存了历史数据的几何信息,在处理稀疏数据时获得了更紧的收敛界.另一方面,Nesterov加速梯度方法(Nesterov’saccelerated gradient,NAG)在梯度下降法的基础上添加了动量运算,在求解光滑凸优化问题时具有数量级加速收敛的性能,在处理非光滑凸问题时也获得了最优的个体收敛速率.最近,已经出现了自适应策略与NAG相结合的研究,但现有代表性的自适应NAG方法AcceleGrad由于采取的自适应方式与AdaGrad不同,步长未能在不同维度上体现差异性,仅得到了加权平均方式的收敛速率,个体收敛速率的理论分析尚存在缺失.提出了一种自适应NAG方法,继承了AdaGrad的步长设置方式,证明了所提算法在解决约束非光滑凸优化问题时具有最优的个体收敛速率.在L1范数约束下,通过求解典型的hinge损失函数分类和L1损失函数回归优化问题.实验验证了理论分析的正确性,也表明了所提算法的性能优于AcceleGrad. 展开更多
关键词 机器学习 凸优化 自适应算法 NAG方法 个体收敛速率
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部