针对神经网络超参数优化效果差、容易陷入次优解和优化效率低的问题,提出一种基于改进实数编码遗传算法(IRCGA)的深度神经网络超参数优化算法——IRCGA-DNN(IRCGA for Deep Neural Network)。首先,采用实数编码方式表示超参数的取值,使...针对神经网络超参数优化效果差、容易陷入次优解和优化效率低的问题,提出一种基于改进实数编码遗传算法(IRCGA)的深度神经网络超参数优化算法——IRCGA-DNN(IRCGA for Deep Neural Network)。首先,采用实数编码方式表示超参数的取值,使超参数的搜索空间更灵活;然后,引入分层比例选择算子增加解集多样性;最后,分别设计了改进的单点交叉和变异算子,以更全面地探索超参数空间,提高优化算法的效率和质量。基于两个仿真数据集,验证IRCGA-DNN的毁伤效果预测性能和收敛效率。实验结果表明,在两个数据集上,与GA-DNN(Genetic Algorithm for Deep Neural Network)相比,所提算法的收敛迭代次数分别减少了8.7%和13.6%,均方误差(MSE)相差不大;与IGA-DNN(Improved GA-DNN)相比,IRCGA-DNN的收敛迭代次数分别减少了22.2%和13.6%。实验结果表明,所提算法收敛速度和预测性能均更优,能有效处理神经网络超参数优化问题。展开更多
为求解高维优化问题,提出基于反向学习和衰减因子的灰狼优化算法(grey wolf algorithm based on opposition learning and reduction factor,ORGWO).设计一种灰狼反向学习模型,模型考虑问题搜索边界信息和种群历史搜索信息,初始种群阶...为求解高维优化问题,提出基于反向学习和衰减因子的灰狼优化算法(grey wolf algorithm based on opposition learning and reduction factor,ORGWO).设计一种灰狼反向学习模型,模型考虑问题搜索边界信息和种群历史搜索信息,初始种群阶段增加反向学习,增强种群多样性.根据算法各个阶段不同特征引入衰减因子,平衡全局和局部勘探能力.选取8个高维函数和23个不同特征的优化函数对算法性能进行测试,进一步使用收敛性分析,寻优成功率,CPU时间,Wilcoxon秩和检验来评估改进算法,实验结果表明,ORGWO算法在求解高维问题上具有较好的精度,鲁棒性和更快的收敛速度.展开更多
文摘针对神经网络超参数优化效果差、容易陷入次优解和优化效率低的问题,提出一种基于改进实数编码遗传算法(IRCGA)的深度神经网络超参数优化算法——IRCGA-DNN(IRCGA for Deep Neural Network)。首先,采用实数编码方式表示超参数的取值,使超参数的搜索空间更灵活;然后,引入分层比例选择算子增加解集多样性;最后,分别设计了改进的单点交叉和变异算子,以更全面地探索超参数空间,提高优化算法的效率和质量。基于两个仿真数据集,验证IRCGA-DNN的毁伤效果预测性能和收敛效率。实验结果表明,在两个数据集上,与GA-DNN(Genetic Algorithm for Deep Neural Network)相比,所提算法的收敛迭代次数分别减少了8.7%和13.6%,均方误差(MSE)相差不大;与IGA-DNN(Improved GA-DNN)相比,IRCGA-DNN的收敛迭代次数分别减少了22.2%和13.6%。实验结果表明,所提算法收敛速度和预测性能均更优,能有效处理神经网络超参数优化问题。
文摘为求解高维优化问题,提出基于反向学习和衰减因子的灰狼优化算法(grey wolf algorithm based on opposition learning and reduction factor,ORGWO).设计一种灰狼反向学习模型,模型考虑问题搜索边界信息和种群历史搜索信息,初始种群阶段增加反向学习,增强种群多样性.根据算法各个阶段不同特征引入衰减因子,平衡全局和局部勘探能力.选取8个高维函数和23个不同特征的优化函数对算法性能进行测试,进一步使用收敛性分析,寻优成功率,CPU时间,Wilcoxon秩和检验来评估改进算法,实验结果表明,ORGWO算法在求解高维问题上具有较好的精度,鲁棒性和更快的收敛速度.