本文以黄河利津站和浙江省白溪水库的月径流水文序列为例,在自相关分析的基础上,建立自回归autoregression模型,并参照其结构建立了相应的resilient back propagation神经网络预报模型.比较结果显示:(1)resilient back propagation模型...本文以黄河利津站和浙江省白溪水库的月径流水文序列为例,在自相关分析的基础上,建立自回归autoregression模型,并参照其结构建立了相应的resilient back propagation神经网络预报模型.比较结果显示:(1)resilient back propagation模型的模拟预报结果与序列的自相关性有密切关系;(2)当序列有较好的自相关性时,可参照autoregression模型建立相应的resilient back propagation模型;(3)与传统autoregression模型相比,resilient back propagation模型能取得更高的预报精度;且随着预报步长增加,resilient back propagation模型的优势更加明显.展开更多
针对神经网络超参数优化效果差、容易陷入次优解和优化效率低的问题,提出一种基于改进实数编码遗传算法(IRCGA)的深度神经网络超参数优化算法——IRCGA-DNN(IRCGA for Deep Neural Network)。首先,采用实数编码方式表示超参数的取值,使...针对神经网络超参数优化效果差、容易陷入次优解和优化效率低的问题,提出一种基于改进实数编码遗传算法(IRCGA)的深度神经网络超参数优化算法——IRCGA-DNN(IRCGA for Deep Neural Network)。首先,采用实数编码方式表示超参数的取值,使超参数的搜索空间更灵活;然后,引入分层比例选择算子增加解集多样性;最后,分别设计了改进的单点交叉和变异算子,以更全面地探索超参数空间,提高优化算法的效率和质量。基于两个仿真数据集,验证IRCGA-DNN的毁伤效果预测性能和收敛效率。实验结果表明,在两个数据集上,与GA-DNN(Genetic Algorithm for Deep Neural Network)相比,所提算法的收敛迭代次数分别减少了8.7%和13.6%,均方误差(MSE)相差不大;与IGA-DNN(Improved GA-DNN)相比,IRCGA-DNN的收敛迭代次数分别减少了22.2%和13.6%。实验结果表明,所提算法收敛速度和预测性能均更优,能有效处理神经网络超参数优化问题。展开更多
文摘本文以黄河利津站和浙江省白溪水库的月径流水文序列为例,在自相关分析的基础上,建立自回归autoregression模型,并参照其结构建立了相应的resilient back propagation神经网络预报模型.比较结果显示:(1)resilient back propagation模型的模拟预报结果与序列的自相关性有密切关系;(2)当序列有较好的自相关性时,可参照autoregression模型建立相应的resilient back propagation模型;(3)与传统autoregression模型相比,resilient back propagation模型能取得更高的预报精度;且随着预报步长增加,resilient back propagation模型的优势更加明显.
文摘针对神经网络超参数优化效果差、容易陷入次优解和优化效率低的问题,提出一种基于改进实数编码遗传算法(IRCGA)的深度神经网络超参数优化算法——IRCGA-DNN(IRCGA for Deep Neural Network)。首先,采用实数编码方式表示超参数的取值,使超参数的搜索空间更灵活;然后,引入分层比例选择算子增加解集多样性;最后,分别设计了改进的单点交叉和变异算子,以更全面地探索超参数空间,提高优化算法的效率和质量。基于两个仿真数据集,验证IRCGA-DNN的毁伤效果预测性能和收敛效率。实验结果表明,在两个数据集上,与GA-DNN(Genetic Algorithm for Deep Neural Network)相比,所提算法的收敛迭代次数分别减少了8.7%和13.6%,均方误差(MSE)相差不大;与IGA-DNN(Improved GA-DNN)相比,IRCGA-DNN的收敛迭代次数分别减少了22.2%和13.6%。实验结果表明,所提算法收敛速度和预测性能均更优,能有效处理神经网络超参数优化问题。