期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于改进深度强化学习的全局路径规划策略
被引量:
2
1
作者
韩玲
张晖
+3 位作者
方若愚
刘国鹏
朱长盛
迟瑞丰
《汽车安全与节能学报》
CAS
CSCD
北大核心
2023年第2期202-211,共10页
为了解决模型过度依赖与过度估计的问题,提出一种基于传统深度强化学习(DRL)的抑制过度估计深度Q网络(SQDQN)算法,来建立全局路径规划策略。该SQDQN算法,结合深度Q网络(DQN)算法与信息熵,来抑制过度估计;借助信息熵,实时评估更新过程,...
为了解决模型过度依赖与过度估计的问题,提出一种基于传统深度强化学习(DRL)的抑制过度估计深度Q网络(SQDQN)算法,来建立全局路径规划策略。该SQDQN算法,结合深度Q网络(DQN)算法与信息熵,来抑制过度估计;借助信息熵,实时评估更新过程,来抑制DQN策略算法过度地估计损害性能;借助SQDQN算法与环境模型的交互作用,建立了获取全局路径规划策略的环境模型。结果表明:与DQN算法相比,SQDQN算法在20次实验中3次选择为更优策略;与Dijkstra传统路径规划方法相比,SQDQN算法所规划路程通行时间减少11.32%;本文的全局路径规划策略,减少了由于DQN对动作预期过高所导致的输出错误动作。
展开更多
关键词
智能交通
路径规划
深度强化学习(DRL)
信息熵
抑制过度估计
下载PDF
职称材料
题名
基于改进深度强化学习的全局路径规划策略
被引量:
2
1
作者
韩玲
张晖
方若愚
刘国鹏
朱长盛
迟瑞丰
机构
长春工业大学机电工程学院
出处
《汽车安全与节能学报》
CAS
CSCD
北大核心
2023年第2期202-211,共10页
基金
国无吉林省自然科学基金(20220101236JC)
吉林省科技计划项目(2023042064GH)
汽车安全与节能国家重点实验室开放基金(清华大学)(KFY2213)。
文摘
为了解决模型过度依赖与过度估计的问题,提出一种基于传统深度强化学习(DRL)的抑制过度估计深度Q网络(SQDQN)算法,来建立全局路径规划策略。该SQDQN算法,结合深度Q网络(DQN)算法与信息熵,来抑制过度估计;借助信息熵,实时评估更新过程,来抑制DQN策略算法过度地估计损害性能;借助SQDQN算法与环境模型的交互作用,建立了获取全局路径规划策略的环境模型。结果表明:与DQN算法相比,SQDQN算法在20次实验中3次选择为更优策略;与Dijkstra传统路径规划方法相比,SQDQN算法所规划路程通行时间减少11.32%;本文的全局路径规划策略,减少了由于DQN对动作预期过高所导致的输出错误动作。
关键词
智能交通
路径规划
深度强化学习(DRL)
信息熵
抑制过度估计
Keywords
intelligent transportation
path planning
deep reinforcement learning(DRL)
information entropy
suppress overestimation
分类号
U463.6 [机械工程—车辆工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于改进深度强化学习的全局路径规划策略
韩玲
张晖
方若愚
刘国鹏
朱长盛
迟瑞丰
《汽车安全与节能学报》
CAS
CSCD
北大核心
2023
2
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部