期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于请求与应答通信机制和局部注意力机制的多机器人强化学习路径规划方法
1
作者
邓辅秦
官桧锋
+4 位作者
谭朝恩
付兰慧
王宏民
林天麟
张建民
《计算机应用》
CSCD
北大核心
2024年第2期432-438,共7页
为降低多机器人在动态环境下路径规划的阻塞率,基于深度强化学习方法框架Actor-Critic,设计一种基于请求与应答通信机制和局部注意力机制的分布式深度强化学习路径规划方法(DCAMAPF)。在Actor网络,基于请求与应答通信机制,每个机器人请...
为降低多机器人在动态环境下路径规划的阻塞率,基于深度强化学习方法框架Actor-Critic,设计一种基于请求与应答通信机制和局部注意力机制的分布式深度强化学习路径规划方法(DCAMAPF)。在Actor网络,基于请求与应答通信机制,每个机器人请求视野内的其他机器人的局部观测信息和动作信息,进而规划出协同的动作策略。在Critic网络,每个机器人基于局部注意力机制将注意力权重动态地分配到在视野内成功应答的其他机器人局部观测和动作信息上。实验结果表明,与传统动态路径规划方法D*Lite、最新的分布式强化学习方法MAPPER和最新的集中式强化学习方法AB-MAPPER相比,DCAMAPF在离散初始化环境,阻塞率均值均约降低了6.91、4.97、3.56个百分点;在集中初始化环境下能更高效地避免发生阻塞,阻塞率均值均约降低了15.86、11.71、5.54个百分点,并减少占用的计算缓存。所提方法确保了路径规划的效率,适用于求解不同动态环境下的多机器人路径规划任务。
展开更多
关键词
多机器人路径规划
深度强化学习
注意力机制
通信
动态环境
下载PDF
职称材料
智能扫地机器人的全覆盖路径规划
被引量:
7
2
作者
黄月琴
罗兵
+2 位作者
邓辅秦
李伟科
杨勇
《五邑大学学报(自然科学版)》
CAS
2021年第2期51-58,共8页
全覆盖路径规划是智能扫地机器人重要的功能之一,但是基于单元分解方法的全覆盖路径规划对复杂的凹多边形环境分解过于细碎,规划的路径转弯多、调头多,优化效果常未达到最佳.结合扫地机器人的实际应用,在代价函数中加入了转弯和调头的开...
全覆盖路径规划是智能扫地机器人重要的功能之一,但是基于单元分解方法的全覆盖路径规划对复杂的凹多边形环境分解过于细碎,规划的路径转弯多、调头多,优化效果常未达到最佳.结合扫地机器人的实际应用,在代价函数中加入了转弯和调头的开销;在单元分解时保留可合并规划的凹区域不再分解;单元内路径优化考虑了相邻区域的统一规划和单元间转移,单元间采用全搜索结合蚁群算法得到最佳转移路径,实现了可适用于复杂环境的全覆盖路径性能优化.仿真实验结果表明该方法有效减少了路径的转弯、调头次数和合计总开销,提高了扫地机器人的全覆盖清扫效率.
展开更多
关键词
全覆盖路径规划
单元分解
全局优化
代价函数
扫地机器人
下载PDF
职称材料
基于改进强化学习的模块化自重构机器人编队
被引量:
3
3
作者
李伟科
岳洪伟
+3 位作者
王宏民
杨勇
赵敏
邓辅秦
《计算技术与自动化》
2022年第3期6-13,共8页
针对传统强化学习算法在训练初期缺乏对周围环境的先验知识,模块化自重构机器人会随机选择动作,导致迭代次数浪费和算法收敛速度缓慢的问题,提出一种两阶段强化学习算法。在第一阶段,利用基于群体和知识共享的Q-learning训练机器人前往...
针对传统强化学习算法在训练初期缺乏对周围环境的先验知识,模块化自重构机器人会随机选择动作,导致迭代次数浪费和算法收敛速度缓慢的问题,提出一种两阶段强化学习算法。在第一阶段,利用基于群体和知识共享的Q-learning训练机器人前往网格地图的中心点,以获得一个最优共享Q表。在这个阶段中,为了减少迭代次数,提高算法的收敛速度,引入了曼哈顿距离作为奖赏值,以引导机器人向有利于中心点方向移动,减小稀疏奖励的影响。在第二阶段,机器人根据这个最优共享Q表和当前所处的位置,找到前往指定目标点的最优路径,形成指定的队形。实验结果表明,在50×50的网格地图中,与对比算法相比,该算法成功训练机器人到达指定目标点,减少了将近50%的总探索步数。此外,当机器人进行队形转换时,编队运行时间减少了近5倍。
展开更多
关键词
模块化自重构机器人
强化学习
多机器人
编队
下载PDF
职称材料
题名
基于请求与应答通信机制和局部注意力机制的多机器人强化学习路径规划方法
1
作者
邓辅秦
官桧锋
谭朝恩
付兰慧
王宏民
林天麟
张建民
机构
五邑大学智能制造学部
香港中文大学(
深圳
)
深圳市
人工智能与
机器人
研究院
深圳市杉川机器人有限公司
出处
《计算机应用》
CSCD
北大核心
2024年第2期432-438,共7页
基金
国家重点研发计划项目(2020YFB1313300)
深圳市科技计划项目(KQTD2016113010470345)
+1 种基金
深圳市人工智能与机器人研究院探索性研究项目(AC01202101103)
五邑大学横向课题(33520098)。
文摘
为降低多机器人在动态环境下路径规划的阻塞率,基于深度强化学习方法框架Actor-Critic,设计一种基于请求与应答通信机制和局部注意力机制的分布式深度强化学习路径规划方法(DCAMAPF)。在Actor网络,基于请求与应答通信机制,每个机器人请求视野内的其他机器人的局部观测信息和动作信息,进而规划出协同的动作策略。在Critic网络,每个机器人基于局部注意力机制将注意力权重动态地分配到在视野内成功应答的其他机器人局部观测和动作信息上。实验结果表明,与传统动态路径规划方法D*Lite、最新的分布式强化学习方法MAPPER和最新的集中式强化学习方法AB-MAPPER相比,DCAMAPF在离散初始化环境,阻塞率均值均约降低了6.91、4.97、3.56个百分点;在集中初始化环境下能更高效地避免发生阻塞,阻塞率均值均约降低了15.86、11.71、5.54个百分点,并减少占用的计算缓存。所提方法确保了路径规划的效率,适用于求解不同动态环境下的多机器人路径规划任务。
关键词
多机器人路径规划
深度强化学习
注意力机制
通信
动态环境
Keywords
multi-agent path finding
deep reinforcement learning
attention mechanism
communication
dynamic environment
分类号
TP242 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
智能扫地机器人的全覆盖路径规划
被引量:
7
2
作者
黄月琴
罗兵
邓辅秦
李伟科
杨勇
机构
五邑大学智能制造学部
深圳市杉川机器人有限公司
出处
《五邑大学学报(自然科学版)》
CAS
2021年第2期51-58,共8页
基金
广东省教育厅重点领域专项项目(2019KZDZX1025)
江门市科技局重点项目(江科[2020]159号)
深圳市科技计划资助项目(KQTD2016113010470345)。
文摘
全覆盖路径规划是智能扫地机器人重要的功能之一,但是基于单元分解方法的全覆盖路径规划对复杂的凹多边形环境分解过于细碎,规划的路径转弯多、调头多,优化效果常未达到最佳.结合扫地机器人的实际应用,在代价函数中加入了转弯和调头的开销;在单元分解时保留可合并规划的凹区域不再分解;单元内路径优化考虑了相邻区域的统一规划和单元间转移,单元间采用全搜索结合蚁群算法得到最佳转移路径,实现了可适用于复杂环境的全覆盖路径性能优化.仿真实验结果表明该方法有效减少了路径的转弯、调头次数和合计总开销,提高了扫地机器人的全覆盖清扫效率.
关键词
全覆盖路径规划
单元分解
全局优化
代价函数
扫地机器人
Keywords
Complete coverage path planning
Cell decomposition
Global optimization
Cost function
Sweeping robot
分类号
TP242.6 [自动化与计算机技术—检测技术与自动化装置]
下载PDF
职称材料
题名
基于改进强化学习的模块化自重构机器人编队
被引量:
3
3
作者
李伟科
岳洪伟
王宏民
杨勇
赵敏
邓辅秦
机构
五邑大学智能制造学部
深圳市
人工智能与
机器人
研究院
深圳市杉川机器人有限公司
中电科普天科技股份
有限公司
研发中心
出处
《计算技术与自动化》
2022年第3期6-13,共8页
基金
国家重点研发计划资助项目(2020YFB1313300)
广东省联合培养研究生示范基地项目(503170060259)
+1 种基金
广东省基础与应用基础研究基金资助项目(2019A1515111119)
深圳市科技计划资助项目(KQTD2016113010470345)。
文摘
针对传统强化学习算法在训练初期缺乏对周围环境的先验知识,模块化自重构机器人会随机选择动作,导致迭代次数浪费和算法收敛速度缓慢的问题,提出一种两阶段强化学习算法。在第一阶段,利用基于群体和知识共享的Q-learning训练机器人前往网格地图的中心点,以获得一个最优共享Q表。在这个阶段中,为了减少迭代次数,提高算法的收敛速度,引入了曼哈顿距离作为奖赏值,以引导机器人向有利于中心点方向移动,减小稀疏奖励的影响。在第二阶段,机器人根据这个最优共享Q表和当前所处的位置,找到前往指定目标点的最优路径,形成指定的队形。实验结果表明,在50×50的网格地图中,与对比算法相比,该算法成功训练机器人到达指定目标点,减少了将近50%的总探索步数。此外,当机器人进行队形转换时,编队运行时间减少了近5倍。
关键词
模块化自重构机器人
强化学习
多机器人
编队
Keywords
modular self-reconfigurable robots
reinforcement learning
multi-robot
formation
分类号
TP39 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于请求与应答通信机制和局部注意力机制的多机器人强化学习路径规划方法
邓辅秦
官桧锋
谭朝恩
付兰慧
王宏民
林天麟
张建民
《计算机应用》
CSCD
北大核心
2024
0
下载PDF
职称材料
2
智能扫地机器人的全覆盖路径规划
黄月琴
罗兵
邓辅秦
李伟科
杨勇
《五邑大学学报(自然科学版)》
CAS
2021
7
下载PDF
职称材料
3
基于改进强化学习的模块化自重构机器人编队
李伟科
岳洪伟
王宏民
杨勇
赵敏
邓辅秦
《计算技术与自动化》
2022
3
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部