期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
融合动作剔除的深度竞争双Q网络智能干扰决策算法
被引量:
1
1
作者
饶宁
许华
宋佰霖
《空军工程大学学报(自然科学版)》
CSCD
北大核心
2021年第4期92-98,共7页
为解决战场通信干扰决策问题,设计了一种融合动作剔除的深度竞争双Q网络智能干扰决策方法。该方法在深度双Q网络框架基础上采用竞争结构的神经网络决策最优干扰动作,并结合优势函数判断各干扰动作的相对优劣,在此基础上引入无效干扰动...
为解决战场通信干扰决策问题,设计了一种融合动作剔除的深度竞争双Q网络智能干扰决策方法。该方法在深度双Q网络框架基础上采用竞争结构的神经网络决策最优干扰动作,并结合优势函数判断各干扰动作的相对优劣,在此基础上引入无效干扰动作剔除机制加快学习最佳干扰策略。当面对未知的通信抗干扰策略时,该方法能学习到较优的干扰策略。仿真结果表明,当敌方通信策略发生变化时,该方法能自适应调整干扰策略,稳健性较强,和已有方法相比可达到更高的干扰成功率,获得更大的干扰效能。
展开更多
关键词
干扰
决策
深度双Q网络
竞争网络
干扰动作剔除
下载PDF
职称材料
融合有效方差置信上界的Q学习智能干扰决策算法
被引量:
2
2
作者
饶宁
许华
宋佰霖
《哈尔滨工业大学学报》
EI
CAS
CSCD
北大核心
2022年第5期162-170,共9页
为进一步提升基于值函数强化学习的智能干扰决策算法的收敛速度,增强战场决策的有效性,设计了一种融合有效方差置信上界思想的改进Q学习智能通信干扰决策算法。该算法在Q学习算法的框架基础上,利用有效干扰动作的价值方差设置置信区间,...
为进一步提升基于值函数强化学习的智能干扰决策算法的收敛速度,增强战场决策的有效性,设计了一种融合有效方差置信上界思想的改进Q学习智能通信干扰决策算法。该算法在Q学习算法的框架基础上,利用有效干扰动作的价值方差设置置信区间,从干扰动作空间中剔除置信度较低的干扰动作,减少干扰方在未知环境中不必要的探索成本,加快其在干扰动作空间的搜索速度,并同步更新所有干扰动作的价值,进而加速学习最优干扰策略。通过将干扰决策场景建模为马尔科夫决策过程进行仿真实验,所构造的干扰实验结果表明:当通信方使用干扰方未知的干扰躲避策略变更通信波道时,与现有基于强化学习的干扰决策算法相比,该算法在无通信方的先验信息条件下,收敛速度更快,可达到更高的干扰成功率,获得更大的干扰总收益。此外,该算法还适用于“多对多”协同对抗环境,可利用动作剔除方法降低联合干扰动作的空间维度,相同实验条件下,其干扰成功率比传统Q学习决策算法高50%以上。
展开更多
关键词
干扰
决策
强化学习
有效方差置信上界
Q学习
干扰动作剔除
马尔科夫决策过程
下载PDF
职称材料
题名
融合动作剔除的深度竞争双Q网络智能干扰决策算法
被引量:
1
1
作者
饶宁
许华
宋佰霖
机构
空军工程大学信息与导航学院
出处
《空军工程大学学报(自然科学版)》
CSCD
北大核心
2021年第4期92-98,共7页
文摘
为解决战场通信干扰决策问题,设计了一种融合动作剔除的深度竞争双Q网络智能干扰决策方法。该方法在深度双Q网络框架基础上采用竞争结构的神经网络决策最优干扰动作,并结合优势函数判断各干扰动作的相对优劣,在此基础上引入无效干扰动作剔除机制加快学习最佳干扰策略。当面对未知的通信抗干扰策略时,该方法能学习到较优的干扰策略。仿真结果表明,当敌方通信策略发生变化时,该方法能自适应调整干扰策略,稳健性较强,和已有方法相比可达到更高的干扰成功率,获得更大的干扰效能。
关键词
干扰
决策
深度双Q网络
竞争网络
干扰动作剔除
Keywords
jamming decision-making
double deep Q network
dueling network
jamming action elimination
分类号
TN975 [电子电信—信号与信息处理]
下载PDF
职称材料
题名
融合有效方差置信上界的Q学习智能干扰决策算法
被引量:
2
2
作者
饶宁
许华
宋佰霖
机构
空军工程大学信息与导航学院
出处
《哈尔滨工业大学学报》
EI
CAS
CSCD
北大核心
2022年第5期162-170,共9页
文摘
为进一步提升基于值函数强化学习的智能干扰决策算法的收敛速度,增强战场决策的有效性,设计了一种融合有效方差置信上界思想的改进Q学习智能通信干扰决策算法。该算法在Q学习算法的框架基础上,利用有效干扰动作的价值方差设置置信区间,从干扰动作空间中剔除置信度较低的干扰动作,减少干扰方在未知环境中不必要的探索成本,加快其在干扰动作空间的搜索速度,并同步更新所有干扰动作的价值,进而加速学习最优干扰策略。通过将干扰决策场景建模为马尔科夫决策过程进行仿真实验,所构造的干扰实验结果表明:当通信方使用干扰方未知的干扰躲避策略变更通信波道时,与现有基于强化学习的干扰决策算法相比,该算法在无通信方的先验信息条件下,收敛速度更快,可达到更高的干扰成功率,获得更大的干扰总收益。此外,该算法还适用于“多对多”协同对抗环境,可利用动作剔除方法降低联合干扰动作的空间维度,相同实验条件下,其干扰成功率比传统Q学习决策算法高50%以上。
关键词
干扰
决策
强化学习
有效方差置信上界
Q学习
干扰动作剔除
马尔科夫决策过程
Keywords
jamming decision-making
reinforcement learning
efficient upper confidence bound variance
Q-learning
jamming action elimination
Markov decision process
分类号
TN975 [电子电信—信号与信息处理]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
融合动作剔除的深度竞争双Q网络智能干扰决策算法
饶宁
许华
宋佰霖
《空军工程大学学报(自然科学版)》
CSCD
北大核心
2021
1
下载PDF
职称材料
2
融合有效方差置信上界的Q学习智能干扰决策算法
饶宁
许华
宋佰霖
《哈尔滨工业大学学报》
EI
CAS
CSCD
北大核心
2022
2
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部