如何在客户规定的时间内合理安排车辆运输路线,一直是物流领域亟待解决的问题。基于此,文章提出使用基于软更新策略的决斗双重深度Q网络(Dueling Double Deep Q-network,D3QN),设计动作空间、状态空间与奖励函数,对带时间窗的绿色车辆...如何在客户规定的时间内合理安排车辆运输路线,一直是物流领域亟待解决的问题。基于此,文章提出使用基于软更新策略的决斗双重深度Q网络(Dueling Double Deep Q-network,D3QN),设计动作空间、状态空间与奖励函数,对带时间窗的绿色车辆路径问题进行建模与求解。选择了小、中、大规模的总计18个算例,将三种算法的实验结果在平均奖励、平均调度车辆数、平均里程和运算时间四个维度进行比较。实验结果表明:在大多数算例中,与Double DQN和Dueling DQN相比,D3QN能在可接受的增加时间范围内,获得更高的奖励函数,调度更少的车辆数,运输更短的里程,实现绿色调度的目标。展开更多
在用户密集分布的蜂窝网络中,功率分配是决定系统性能和通信质量的重要因素之一。由于现有的功率分配算法往往达不到理想效果,而且泛化能力较差。在此基础上,提出一种基于D3QN(dueling double deep Q network)的功率分配算法来优化系统...在用户密集分布的蜂窝网络中,功率分配是决定系统性能和通信质量的重要因素之一。由于现有的功率分配算法往往达不到理想效果,而且泛化能力较差。在此基础上,提出一种基于D3QN(dueling double deep Q network)的功率分配算法来优化系统的传输速率。D3QN采用双神经网络和竞争网络优化神经网络的结构,通过解耦动作的选择和价值的评估,解决了DQN中出现的高估问题。仿真结果表明,该算法能够获得的平均速率比DQN高7.14%,在收敛速度和稳定性方面也有较好的表现,且泛化能力较强,可适用于不同实际场景。展开更多
文摘在用户密集分布的蜂窝网络中,功率分配是决定系统性能和通信质量的重要因素之一。由于现有的功率分配算法往往达不到理想效果,而且泛化能力较差。在此基础上,提出一种基于D3QN(dueling double deep Q network)的功率分配算法来优化系统的传输速率。D3QN采用双神经网络和竞争网络优化神经网络的结构,通过解耦动作的选择和价值的评估,解决了DQN中出现的高估问题。仿真结果表明,该算法能够获得的平均速率比DQN高7.14%,在收敛速度和稳定性方面也有较好的表现,且泛化能力较强,可适用于不同实际场景。