期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
烈火燎原——《StarCraft:Brood War》剧情小说(圣堂武士篇)
1
作者 网虫 《电脑》 1999年第3期98-100,共3页
地球联邦控制了Char行星并且掳获了Zerg种族的主宰,人类利用强大的能量发射器切断了Kerrigan对其余Zerg的控制联系,无疑这严重削弱了Kerrigan对于这个地区的控制,所以Ker-rigan组成了一支特殊的队伍,他们的任务便是摧毁能量发射器,并且... 地球联邦控制了Char行星并且掳获了Zerg种族的主宰,人类利用强大的能量发射器切断了Kerrigan对其余Zerg的控制联系,无疑这严重削弱了Kerrigan对于这个地区的控制,所以Ker-rigan组成了一支特殊的队伍,他们的任务便是摧毁能量发射器,并且把地球联邦对主宰的控制切断。 展开更多
关键词 starcraft:Brood War》 剧情小说 圣堂武士篇 电脑游戏
下载PDF
深度强化学习中状态注意力机制的研究 被引量:11
2
作者 申翔翔 侯新文 尹传环 《智能系统学报》 CSCD 北大核心 2020年第2期317-322,共6页
虽然在深度学习与强化学习结合后,人工智能在棋类游戏和视频游戏等领域取得了超越人类水平的重大成就,但是实时策略性游戏星际争霸由于其巨大的状态空间和动作空间,对于人工智能研究者来说是一个巨大的挑战平台,针对Deepmind在星际争霸... 虽然在深度学习与强化学习结合后,人工智能在棋类游戏和视频游戏等领域取得了超越人类水平的重大成就,但是实时策略性游戏星际争霸由于其巨大的状态空间和动作空间,对于人工智能研究者来说是一个巨大的挑战平台,针对Deepmind在星际争霸Ⅱ迷你游戏中利用经典的深度强化学习算法A3C训练出来的基线智能体的水平和普通业余玩家的水平相比还存在较大的差距的问题。通过采用更简化的网络结构以及把注意力机制与强化学习中的奖励结合起来的方法,提出基于状态注意力的A3C算法,所训练出来的智能体在个别星际迷你游戏中利用更少的特征图层取得的成绩最高,高于Deepmind的基线智能体71分。 展开更多
关键词 深度学习 强化学习 注意力机制 A3C算法 星际争霸Ⅱ迷你游戏 智能体 微型操作
下载PDF
SC2LE场景下基于QMIX算法的多智能体协同控制 被引量:1
3
作者 方星辰 崔鹏 王庆领 《指挥信息系统与技术》 2021年第2期21-26,共6页
为了解决多智能体协同控制中高维状态空间与环境部分可观测的问题,研究了中心式训练分布式执行框架在多智能体强化学习中的实现方法,以及复杂场景下传统强化学习算法,并采用带注意力机制的QMIX算法实现了协同控制。以星际争霸2学习环境(... 为了解决多智能体协同控制中高维状态空间与环境部分可观测的问题,研究了中心式训练分布式执行框架在多智能体强化学习中的实现方法,以及复杂场景下传统强化学习算法,并采用带注意力机制的QMIX算法实现了协同控制。以星际争霸2学习环境(SC2LE)为基础的小场景中,将多个作战单位作为多智能体进行协同控制并加以试验验证。试验结果表明,与其他多智能体强化学习算法相比,带注意力机制的QMIX算法能够得到收敛的训练模型,可获得较好的协同控制效果。 展开更多
关键词 多智能体强化学习 QMIX算法 注意力机制 SC2LE
下载PDF
星际争霸图像序列的群体行为识别研究
4
作者 白江波 杨阳 张文生 《应用科技》 CAS 2022年第2期63-69,共7页
以星际争霸游戏图像数据的群体目标行为识别为研究目标,构建游戏中群体目标典型行为的数据集,并应用当前主流的行为识别方法对游戏图像序列进行了群体行为识别。群体目标典型行为的数据集共包含战斗、移动、静止这3类典型行为,每个行为... 以星际争霸游戏图像数据的群体目标行为识别为研究目标,构建游戏中群体目标典型行为的数据集,并应用当前主流的行为识别方法对游戏图像序列进行了群体行为识别。群体目标典型行为的数据集共包含战斗、移动、静止这3类典型行为,每个行为样本中包含不同数量、不同背景和不同行为表示形式的目标单元,充分保证了数据样本的多样性。分别使用时间段网络(TSN)、3D卷积(C3D)网络、膨胀3D卷积网络(I3D)以及时间移位模块(TSM)这4种行为识别方法,对构建的星际争霸图像序列群体目标行为识别数据集进行了验证。实验结果表明,本数据集有效,且基于3D卷积网络的C3D模型取得了最好的行为识别效果和最短的计算时间,满足群体目标行为识别任务需求。本文为后续研究遥感图像的群体目标行为识别方法提供了指导和迁移学习的原始数据。 展开更多
关键词 图像序列 群体行为识别 3D卷积 星际争霸 行为数据集 神经网络 深度学习 残差网络
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部