针对灰狼优化算法(Grey Wolf Optimizer, GWO)寻优精度低、收敛速度慢的问题,提出了一种基于IMQ惯性权重策略的自适应灰狼优化算法(ISGWO)。该算法利用IMQ函数的特性,实现对惯性权重的非线性调整,从而更好地平衡算法的全局勘探能力和局...针对灰狼优化算法(Grey Wolf Optimizer, GWO)寻优精度低、收敛速度慢的问题,提出了一种基于IMQ惯性权重策略的自适应灰狼优化算法(ISGWO)。该算法利用IMQ函数的特性,实现对惯性权重的非线性调整,从而更好地平衡算法的全局勘探能力和局部开发能力;同时,基于Sigmoid指数函数自适应更新个体位置,更好地搜索和优化问题的解空间。采用6个基本函数和29个CEC2017函数对ISGWO进行测试,并与6种常用的算法进行比较,实验结果表明ISGWO具有更优的收敛精度和速度。展开更多
Kriging模型的U学习函数(Learning Function U)是将模型预测符号容易产生错误的样本点加入设计并拟合模型,但是样本点在非重要区域的过多抽样会导致模型的收敛速度偏慢。为提高可靠性的计算效率,通过对样本点赋予不同的权值,提出U权重...Kriging模型的U学习函数(Learning Function U)是将模型预测符号容易产生错误的样本点加入设计并拟合模型,但是样本点在非重要区域的过多抽样会导致模型的收敛速度偏慢。为提高可靠性的计算效率,通过对样本点赋予不同的权值,提出U权重学习函数(Weight Learning Function U,WU)。学习函数选择的样本点接近极限状态曲面,有效减少功能函数的调用次数,加快Kriging模型的收敛过程,提高可靠性计算效率。算例表明WU函数相比其他方法在Kriging模型建立过程中所需样本点少,收敛速度快,计算效率高,在功能函数复杂或为隐式的工程问题中具有较高的实用价值。展开更多
文摘针对灰狼优化算法(Grey Wolf Optimizer, GWO)寻优精度低、收敛速度慢的问题,提出了一种基于IMQ惯性权重策略的自适应灰狼优化算法(ISGWO)。该算法利用IMQ函数的特性,实现对惯性权重的非线性调整,从而更好地平衡算法的全局勘探能力和局部开发能力;同时,基于Sigmoid指数函数自适应更新个体位置,更好地搜索和优化问题的解空间。采用6个基本函数和29个CEC2017函数对ISGWO进行测试,并与6种常用的算法进行比较,实验结果表明ISGWO具有更优的收敛精度和速度。
文摘Kriging模型的U学习函数(Learning Function U)是将模型预测符号容易产生错误的样本点加入设计并拟合模型,但是样本点在非重要区域的过多抽样会导致模型的收敛速度偏慢。为提高可靠性的计算效率,通过对样本点赋予不同的权值,提出U权重学习函数(Weight Learning Function U,WU)。学习函数选择的样本点接近极限状态曲面,有效减少功能函数的调用次数,加快Kriging模型的收敛过程,提高可靠性计算效率。算例表明WU函数相比其他方法在Kriging模型建立过程中所需样本点少,收敛速度快,计算效率高,在功能函数复杂或为隐式的工程问题中具有较高的实用价值。