期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
基于ROS和滑模控制器的无人车编队控制平台研究 被引量:1
1
作者 叶金泽 薛雅丽 谢良忱 《电光与控制》 CSCD 北大核心 2023年第3期42-47,共6页
为提高多智能体任务完成效率以及降低成本,基于阿克曼无人车模型设计了滑模控制器,实现了跟随车对于期望轨迹跟踪。采用双曲正切函数代替指数趋近律中的符号函数,保证切换函数具有连续性。证明了新构造趋近律作用下系统的收敛性。基于... 为提高多智能体任务完成效率以及降低成本,基于阿克曼无人车模型设计了滑模控制器,实现了跟随车对于期望轨迹跟踪。采用双曲正切函数代替指数趋近律中的符号函数,保证切换函数具有连续性。证明了新构造趋近律作用下系统的收敛性。基于树莓派4B和ROS搭建了低成本无人车实验平台,完成了ROS软件功能设计,包括无人车平台的导航、建图、TF变换等功能。针对多无人车系统完成了组网操作,使得无人车能够进行传感器数据共享并通过TF变换关系求得相对位置信息。最后基于所设计的滑模控制器在实机平台完成实验,得到编队控制性能曲线图并进行了定性定量分析。 展开更多
关键词 无人车 自动控制 滑模控制 编队控制 ROS 多智能体系统
下载PDF
基于改进强化学习的多智能体追逃对抗
2
作者 薛雅丽 叶金泽 李寒雁 《浙江大学学报(工学版)》 EI CAS CSCD 北大核心 2023年第8期1479-1486,1515,共9页
针对多智能体追逃问题,提出基于优先经验回放和解耦奖励函数的多智能体强化学习算法.将多智能体深度确定性策略梯度算法(MADDPG)和双延迟-确定策略梯度算法(TD3)相结合,提出多智能体双延迟-确定策略梯度算法(MATD3).针对多智能体追逃问... 针对多智能体追逃问题,提出基于优先经验回放和解耦奖励函数的多智能体强化学习算法.将多智能体深度确定性策略梯度算法(MADDPG)和双延迟-确定策略梯度算法(TD3)相结合,提出多智能体双延迟-确定策略梯度算法(MATD3).针对多智能体追逃问题中奖励函数存在大量稀疏奖励的问题,提出利用优先经验回放方法确定经验优先度以及采样高价值经验.设计解耦奖励函数,将奖励函数分为个体奖励和联合奖励以最大化全局奖励和局部奖励,提出DEPER-MATD3算法.基于此算法设计仿真实验,并与其他算法对比,实验结果表明,该算法有效解决了过估计问题,且耗时相比MATD3算法有所减少.在解耦奖励函数环境下该算法训练的追击者的全局平均奖励升高,追击者有更大的概率追击到逃逸者. 展开更多
关键词 追逃对抗 强化学习 经验回放 多智能体 奖励函数
下载PDF
基于改进狼群算法的多机协同目标分配研究 被引量:7
3
作者 陈杰 薛雅丽 叶金泽 《吉林大学学报(信息科学版)》 CAS 2022年第1期20-29,共10页
为充分发挥战机集群整体作战优势以得到最优目标分配方案,采用改进狼群算法对战场态势模型进行求解。通过保证算法的寻优效率,引入次头狼概念对狼群的召唤与围攻行为做出改进,并对狼群算法的更新机制做出了优化,提高算法的全局寻优能力... 为充分发挥战机集群整体作战优势以得到最优目标分配方案,采用改进狼群算法对战场态势模型进行求解。通过保证算法的寻优效率,引入次头狼概念对狼群的召唤与围攻行为做出改进,并对狼群算法的更新机制做出了优化,提高算法的全局寻优能力。仿真结果表明,所提方法能快速准确地寻找到最优目标函数值,且在一定程度上改善了传统狼群算法易陷入局部最优的情况。 展开更多
关键词 目标分配 狼群算法 局部最优
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部