期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
3
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
SC2LE场景下基于QMIX算法的多智能体协同控制
被引量:
1
1
作者
方星辰
崔鹏
王庆领
《指挥信息系统与技术》
2021年第2期21-26,共6页
为了解决多智能体协同控制中高维状态空间与环境部分可观测的问题,研究了中心式训练分布式执行框架在多智能体强化学习中的实现方法,以及复杂场景下传统强化学习算法,并采用带注意力机制的QMIX算法实现了协同控制。以星际争霸2学习环境(...
为了解决多智能体协同控制中高维状态空间与环境部分可观测的问题,研究了中心式训练分布式执行框架在多智能体强化学习中的实现方法,以及复杂场景下传统强化学习算法,并采用带注意力机制的QMIX算法实现了协同控制。以星际争霸2学习环境(SC2LE)为基础的小场景中,将多个作战单位作为多智能体进行协同控制并加以试验验证。试验结果表明,与其他多智能体强化学习算法相比,带注意力机制的QMIX算法能够得到收敛的训练模型,可获得较好的协同控制效果。
展开更多
关键词
多智能体强化学习
QMIX算法
注意力机制
sc2le
下载PDF
职称材料
基于角色分配的多智能体决策算法研究
被引量:
2
2
作者
陈杰
程胜
《电子设计工程》
2019年第14期117-120,125,共5页
设计了一种使用角色来代替智能体的多智能体协同学习方法。根据多智能体系统的特性在多智能体系统中划分若干角色,每个角色拥有其独立的状态空间和动作空间,为智能体的状态空间和动作空间来的子空间。把多智能体系统对智能体的学习转变...
设计了一种使用角色来代替智能体的多智能体协同学习方法。根据多智能体系统的特性在多智能体系统中划分若干角色,每个角色拥有其独立的状态空间和动作空间,为智能体的状态空间和动作空间来的子空间。把多智能体系统对智能体的学习转变为对角色的学习。用角色的分配来代替多智能体系统的决策,使用强化学习的方法训练决策层,使其在各个状态下都能选择到最优的角色分配策略。在"星际争霸Ⅱ学习环境"(SC2LE)中进行实验,验证了该方法在有效降低状态空间的情况下,仍然具有可行性与高鲁棒性。
展开更多
关键词
多智能体系统
智能体协同
决策算法
强化学习
sc2le
下载PDF
职称材料
基于逆向强化学习的虚拟人物行为生成方法
3
作者
刘佳楠
于洋
赵亚威
《信息技术与信息化》
2023年第6期114-117,共4页
针对指挥训练系统所面临的科目越来越复杂,所需要协调的人员越来越庞大,而且对场景的逼真程度要求越来越高,需要多方各级指挥员的参与才能进行训练的问题,提出了一种基于逆向强化学习的方法。首先,通过机器学习得到基于专家数据的潜在...
针对指挥训练系统所面临的科目越来越复杂,所需要协调的人员越来越庞大,而且对场景的逼真程度要求越来越高,需要多方各级指挥员的参与才能进行训练的问题,提出了一种基于逆向强化学习的方法。首先,通过机器学习得到基于专家数据的潜在回报函数;其次,将回报函数作为轨迹生成训练的奖励函数,利用DDPG网络进行强化学习,训练最优轨迹生成网络模型,使其能够综合众多专家的策略部署能力;最后,对提出的方法在SC2LE平台进行验证,通过对比不同回报函数的训练收敛效果与实际生成策略得分能力来证明了算法的有效性。
展开更多
关键词
逆向强化学习
强化学习
sc2le
下载PDF
职称材料
题名
SC2LE场景下基于QMIX算法的多智能体协同控制
被引量:
1
1
作者
方星辰
崔鹏
王庆领
机构
东南大学自动化学院
中国电子科技集团公司第二十八研究所
出处
《指挥信息系统与技术》
2021年第2期21-26,共6页
基金
国家自然科学基金(61973074)
国家重点研发计划(2018AAA0101400)
+1 种基金
信息系统工程重点实验室基金(05201902)
中央高校基本科研业务费专项资助项目。
文摘
为了解决多智能体协同控制中高维状态空间与环境部分可观测的问题,研究了中心式训练分布式执行框架在多智能体强化学习中的实现方法,以及复杂场景下传统强化学习算法,并采用带注意力机制的QMIX算法实现了协同控制。以星际争霸2学习环境(SC2LE)为基础的小场景中,将多个作战单位作为多智能体进行协同控制并加以试验验证。试验结果表明,与其他多智能体强化学习算法相比,带注意力机制的QMIX算法能够得到收敛的训练模型,可获得较好的协同控制效果。
关键词
多智能体强化学习
QMIX算法
注意力机制
sc2le
Keywords
multi-agent reinforcement learning
QMIX algorithm
attention mechanism
StarCraft Ⅱ learning environment(
sc2le
)
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
基于角色分配的多智能体决策算法研究
被引量:
2
2
作者
陈杰
程胜
机构
中国载人航天工程办公室
软件研发中心中国航天科技集团公司
出处
《电子设计工程》
2019年第14期117-120,125,共5页
文摘
设计了一种使用角色来代替智能体的多智能体协同学习方法。根据多智能体系统的特性在多智能体系统中划分若干角色,每个角色拥有其独立的状态空间和动作空间,为智能体的状态空间和动作空间来的子空间。把多智能体系统对智能体的学习转变为对角色的学习。用角色的分配来代替多智能体系统的决策,使用强化学习的方法训练决策层,使其在各个状态下都能选择到最优的角色分配策略。在"星际争霸Ⅱ学习环境"(SC2LE)中进行实验,验证了该方法在有效降低状态空间的情况下,仍然具有可行性与高鲁棒性。
关键词
多智能体系统
智能体协同
决策算法
强化学习
sc2le
Keywords
multi-agent system
multi-agent cooperative
decision making
reinforcement learning
sc2le
分类号
TN975 [电子电信—信号与信息处理]
下载PDF
职称材料
题名
基于逆向强化学习的虚拟人物行为生成方法
3
作者
刘佳楠
于洋
赵亚威
机构
沈阳理工大学
出处
《信息技术与信息化》
2023年第6期114-117,共4页
文摘
针对指挥训练系统所面临的科目越来越复杂,所需要协调的人员越来越庞大,而且对场景的逼真程度要求越来越高,需要多方各级指挥员的参与才能进行训练的问题,提出了一种基于逆向强化学习的方法。首先,通过机器学习得到基于专家数据的潜在回报函数;其次,将回报函数作为轨迹生成训练的奖励函数,利用DDPG网络进行强化学习,训练最优轨迹生成网络模型,使其能够综合众多专家的策略部署能力;最后,对提出的方法在SC2LE平台进行验证,通过对比不同回报函数的训练收敛效果与实际生成策略得分能力来证明了算法的有效性。
关键词
逆向强化学习
强化学习
sc2le
分类号
G63 [文化科学—教育学]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
SC2LE场景下基于QMIX算法的多智能体协同控制
方星辰
崔鹏
王庆领
《指挥信息系统与技术》
2021
1
下载PDF
职称材料
2
基于角色分配的多智能体决策算法研究
陈杰
程胜
《电子设计工程》
2019
2
下载PDF
职称材料
3
基于逆向强化学习的虚拟人物行为生成方法
刘佳楠
于洋
赵亚威
《信息技术与信息化》
2023
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部