期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
战场环境下遗传黏菌算法的多机协同任务分配
1
作者 薛雅丽 李寒雁 +2 位作者 欧阳权 崔闪 洪君 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2024年第8期1748-1756,共9页
针对已知战场环境下的多无人机协同任务分配问题,提出基于融合遗传黏菌算法的任务分配方法.综合单机约束、机群总体收益和损耗以及任务需求等条件,构建多机协同任务分配目标函数.针对遗传算法易陷入局部最优、黏菌算法收敛慢的问题,改... 针对已知战场环境下的多无人机协同任务分配问题,提出基于融合遗传黏菌算法的任务分配方法.综合单机约束、机群总体收益和损耗以及任务需求等条件,构建多机协同任务分配目标函数.针对遗传算法易陷入局部最优、黏菌算法收敛慢的问题,改进遗传迭代和黏菌探索行为.将离散黏菌算法引入遗传算法,增强融合算法的搜索能力.在种群迭代中加入干扰操作,提高求解精度.在已知环境下进行分配试验和路径演示,并与其他算法进行对比.结果表明,利用所提出的融合算法,能够获得目标函数值更高的任务分配方案. 展开更多
关键词 多机协同 任务分配 遗传算法 黏菌算法 局部收敛
下载PDF
基于改进强化学习的多智能体追逃对抗
2
作者 薛雅丽 叶金泽 李寒雁 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2023年第8期1479-1486,1515,共9页
针对多智能体追逃问题,提出基于优先经验回放和解耦奖励函数的多智能体强化学习算法.将多智能体深度确定性策略梯度算法(MADDPG)和双延迟-确定策略梯度算法(TD3)相结合,提出多智能体双延迟-确定策略梯度算法(MATD3).针对多智能体追逃问... 针对多智能体追逃问题,提出基于优先经验回放和解耦奖励函数的多智能体强化学习算法.将多智能体深度确定性策略梯度算法(MADDPG)和双延迟-确定策略梯度算法(TD3)相结合,提出多智能体双延迟-确定策略梯度算法(MATD3).针对多智能体追逃问题中奖励函数存在大量稀疏奖励的问题,提出利用优先经验回放方法确定经验优先度以及采样高价值经验.设计解耦奖励函数,将奖励函数分为个体奖励和联合奖励以最大化全局奖励和局部奖励,提出DEPER-MATD3算法.基于此算法设计仿真实验,并与其他算法对比,实验结果表明,该算法有效解决了过估计问题,且耗时相比MATD3算法有所减少.在解耦奖励函数环境下该算法训练的追击者的全局平均奖励升高,追击者有更大的概率追击到逃逸者. 展开更多
关键词 追逃对抗 强化学习 经验回放 多智能体 奖励函数
下载PDF
基于动态逆的L1自适应飞行控制方法研究
3
作者 马瀚融 薛雅丽 李寒雁 《电光与控制》 CSCD 北大核心 2023年第11期1-6,共6页
战机在战场追逃过程中需要完成超机动动作以快速进入优势攻击区域,但在大攻角飞行范围内,飞行过程具有强烈的耦合作用。传统的动态逆控制方法具有很好的快速解耦能力,但鲁棒性较差。提出一种基于非线性动态逆的L1自适应飞行控制方法,通... 战机在战场追逃过程中需要完成超机动动作以快速进入优势攻击区域,但在大攻角飞行范围内,飞行过程具有强烈的耦合作用。传统的动态逆控制方法具有很好的快速解耦能力,但鲁棒性较差。提出一种基于非线性动态逆的L1自适应飞行控制方法,通过引入PI型动态逆控制和L1自适应结构,提高了系统的动态性能和鲁棒性。最后利用某软件仿真战机类眼镜蛇机动,结果表明该方法在提升了系统动态性能的基础上,还可以有效补偿参数不确定性等扰动,同时提高了鲁棒性,能够为战机空中作战提供技术参考。 展开更多
关键词 作战飞机 飞行控制系统 动态逆 L1自适应控制 超机动 鲁棒性
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部