期刊文献+
共找到1,455篇文章
< 1 2 73 >
每页显示 20 50 100
基于PPO的自适应PID控制算法研究
1
作者 周志勇 莫非 +2 位作者 赵凯 郝云波 钱宇峰 《系统仿真学报》 CAS CSCD 北大核心 2024年第6期1425-1432,共8页
采用MATLAB物理引擎联合Python搭建了一个六轴机械臂,并模拟带有扰动的复杂控制环境,为机械臂训练提供现实中无法提供的试错环境。使用强化学习中近端优化算法(proximal policy optimization,PPO)算法对传统PID控制算法进行改进,引入多... 采用MATLAB物理引擎联合Python搭建了一个六轴机械臂,并模拟带有扰动的复杂控制环境,为机械臂训练提供现实中无法提供的试错环境。使用强化学习中近端优化算法(proximal policy optimization,PPO)算法对传统PID控制算法进行改进,引入多智能体思想,根据PID三个参数对控制系统的不同影响及六轴机械臂的特性,将三个参数分别作为不同的智能个体进行训练,实现多智能体自适应调整参数的新型多智能体自适应PID算法。仿真结果表明:该算法的训练收敛性优于MA-DDPG与MA-SAC算法,与传统PID算法的控制效果相比,在遇到扰动及振荡的情况下,能够更有效地抑制振荡,并具有更低的超调量和调整时间,控制过程更为平缓,有效提高了机械臂的控制精度,证明了该算法的鲁棒性及有效性。 展开更多
关键词 强化学习 近端优化算法 自适应PID整定 机械臂 多智能体
下载PDF
基于样本优化的PPO算法在单路口信号控制的应用
2
作者 张国有 张新武 《计算机系统应用》 2024年第6期161-168,共8页
优化交通信号的控制策略可以提高道路车辆通行效率,缓解交通拥堵.针对基于值函数的深度强化学习算法难以高效优化单路口信号控制策略的问题,构建了一种基于样本优化的近端策略优化(MPPO)算法的单路口信号控制方法,通过对传统PPO算法中... 优化交通信号的控制策略可以提高道路车辆通行效率,缓解交通拥堵.针对基于值函数的深度强化学习算法难以高效优化单路口信号控制策略的问题,构建了一种基于样本优化的近端策略优化(MPPO)算法的单路口信号控制方法,通过对传统PPO算法中代理目标函数进行最大化提取,有效提高了模型选择样本的质量,采用多维交通状态向量作为模型观测值的输入方法,以及时跟踪并利用道路交通状态的动态变化过程.为了验证MPPO算法模型的准确性和有效性,在城市交通微观模拟软件(SUMO)上与值函数强化学习控制方法进行对比.仿真实验表明,相比于值函数强化学习控制方法,该方法更贴近真实的交通场景,显著加快了车辆累计等待时间的收敛速度,车辆的平均队列长度和平均等待时间明显缩短,有效提高了单路口车辆的通行效率. 展开更多
关键词 交通信号控制 深度强化学习 近端策略优化算法 代理目标函数 状态特征向量
下载PDF
基于PPO的球形机器人目标跟随研究
3
作者 靳一聪 应展烽 +2 位作者 刘春政 葛昊 陈志华 《兵器装备工程学报》 CAS CSCD 北大核心 2024年第3期280-285,共6页
球形机器人由于其优异的运动性能、出色的地形适应能力和防侧翻的特性,被广泛应用于水下探测、岸滩巡检等需要适应复杂环境的场景。然而球形机器人系统模型具有欠驱动、非线性的特点,运动控制问题复杂,在复杂应用环境下难以可靠跟随目... 球形机器人由于其优异的运动性能、出色的地形适应能力和防侧翻的特性,被广泛应用于水下探测、岸滩巡检等需要适应复杂环境的场景。然而球形机器人系统模型具有欠驱动、非线性的特点,运动控制问题复杂,在复杂应用环境下难以可靠跟随目标。为此,提出了一种基于近端策略优化(PPO)算法的球形机器人目标跟随方法。该方法基于深度强化学习理论,在球形机器人动力学模型的基础上,设计了简单高效的动作空间和表征完善的状态空间。并且为提高目标跟随方法的鲁棒性,该方法在奖励函数中引入人工势场,以使目标始终保持在机器人视野中心。仿真结果表明,所提方法能够满足既定场景的跟随需求,球形机器人使用该方法可以对随机运动目标进行可靠跟随。 展开更多
关键词 球形机器人 目标跟随 强化学习 ppo算法 人工势场
下载PDF
PPO增韧生物基PA56合金的制备及性能
4
作者 庄肖 种云胜 +3 位作者 王立岩 别致 王子超 崔致博 《塑料》 CAS CSCD 北大核心 2024年第4期1-7,共7页
以有机刚性粒子PPO为增韧剂,采用熔融共混的方法对PA56进行增韧改性,制得PA56/PPO合金。研究结果表明,PA56/PPO合金样品断面形貌呈现典型的海-岛结构,PPO以球状颗粒的形态均匀地分布在PA56连续相中,相畴尺寸为100~300 nm。PA56/PPO合金... 以有机刚性粒子PPO为增韧剂,采用熔融共混的方法对PA56进行增韧改性,制得PA56/PPO合金。研究结果表明,PA56/PPO合金样品断面形貌呈现典型的海-岛结构,PPO以球状颗粒的形态均匀地分布在PA56连续相中,相畴尺寸为100~300 nm。PA56/PPO合金的力学性能测试表明,随着PPO含量的增加,简支梁缺口冲击强度增强,断裂伸长率提高,当PPO质量分数为30%时,PA56/PPO合金的冲击强度为9.4 kJ/m^(2),断裂伸长率为20.5%,与纯PA56相比,分别提高了303%和820%;但是,合金的拉伸强度变化较小。当PPO质量分数为30%,PA56/PPO合金吸水率为1.67%,与纯PA56相比降低了57.6%。随着体系中PPO含量的增加,合金材料的结晶温度和结晶度逐渐降低,热失重并未发生明显改变。 展开更多
关键词 生物基PA56 ppo 增韧 合金 性能
下载PDF
基于PPO算法的不同驾驶风格跟车模型研究
5
作者 闫鑫 黄志球 +1 位作者 石帆 徐恒 《计算机科学》 CSCD 北大核心 2024年第9期223-232,共10页
自动驾驶对于减少交通堵塞、提高驾驶舒适性具有非常重要的作用,如何提高人们对自动驾驶技术的接受程度仍具有重要的研究意义。针对不同需求的人群定制不同的驾驶风格,可以帮助驾驶人理解自动驾驶行为,提高驾驶人的乘车体验,在一定程度... 自动驾驶对于减少交通堵塞、提高驾驶舒适性具有非常重要的作用,如何提高人们对自动驾驶技术的接受程度仍具有重要的研究意义。针对不同需求的人群定制不同的驾驶风格,可以帮助驾驶人理解自动驾驶行为,提高驾驶人的乘车体验,在一定程度上消除驾驶人对使用自动驾驶系统的心理抵抗性。通过分析自动驾驶场景下的跟车行为,提出基于PPO算法的不同驾驶风格的深度强化学习模型设计方案。首先分析德国高速公路车辆行驶数据集(HDD)中大量驾驶行为轨迹,根据跟车时距(THW)、跟车距离(DHW)、行车加速度以及跟车速度特征进行归类,提取激进型的驾驶风格和稳健型的驾驶风格的特征数据,以此为基础编码能够反映驾驶人风格的奖励函数,经过迭代学习生成不同驾驶风格的深度强化学习模型,并在highway env平台上进行道路模拟。实验结果表明,基于PPO算法的不同风格驾驶模型具有完成任务目标的能力,且与传统的智能驾驶模型(IDM)相比,能够在驾驶行为中准确反映出不同的驾驶风格。 展开更多
关键词 自动驾驶 智能驾驶模型 强化学习 ppo算法 主成分分析 K-MEANS
下载PDF
PPOS方案及拮抗剂方案在卵巢储备功能减退患者中的应用比较
6
作者 刘子霞 王涛 +3 位作者 张会娜 李娜娜 吴中伟 徐玲 《齐齐哈尔医学院学报》 2024年第4期318-323,共6页
目的 对比高孕激素状态下促排卵(PPOS)方案及拮抗剂方案在卵巢储备功能减退(DOR)患者中的促排卵效果、实验室培养及首次冻融胚胎移植(FET)妊娠结局,为改善DOR患者的辅助生殖助孕结局提供科学参考。方法 回顾性分析2016年1月—2022年6月... 目的 对比高孕激素状态下促排卵(PPOS)方案及拮抗剂方案在卵巢储备功能减退(DOR)患者中的促排卵效果、实验室培养及首次冻融胚胎移植(FET)妊娠结局,为改善DOR患者的辅助生殖助孕结局提供科学参考。方法 回顾性分析2016年1月—2022年6月本院生殖医学中心收治的302周期DOR患者的临床资料,根据促排卵方案分为PPOS组(216周期)和拮抗剂组(86周期),根据年龄将PPOS组分为:(1)低龄组:78周期,年龄≤35岁;(2)高龄组:138周期,年龄>35岁。同理,将拮抗剂组分为:(1)低龄组:36周期,年龄≤35岁;(2)高龄组:50周期,年龄>35岁。比较各组患者的临床资料、促排卵效果、实验室培养及首次FET妊娠结局。结果 两组患者的年龄、不孕年限、身体质量指数(BMI)、不孕类型、受精方式、基础FSH及LH水平等资料比较均无差异(P>0.05)。以35岁作为划分生育年龄节点,不同促排卵方案的低龄组及高龄组患者的基础FSH及LH水平具有差异性(P<0.05)。PPOS组患者与拮抗剂组患者的Gn启动量、Gn天数、Gn总剂量、卵子逃逸率、未取出卵子率、无可用卵子率、周期取消率等指标无差异(P>0.05);低龄及高龄DOR患者的获卵数相比,PPOS组均低于拮抗剂组,差异具有统计学意义(P<0.05)。低龄及高龄DOR患者中,两种促排卵方案的可用胚胎率、优质胚胎率、2PN率、2PN卵裂率比较均无差异(P>0.05),拮抗剂组卵子利用率更高,其MⅡ数高于PPOS组,差异具有统计学意义(P<0.05)。统计首次FET妊娠结局,PPOS组低龄患者妊娠率和活产率分别为50.00%、27.27%,高于高龄患者的43.33%、12.73%;拮抗剂组低龄患者妊娠率和活产率均为60.00%,高于高龄患者的35.71%、21.43%,但两种促排卵方案同年龄段患者的妊娠率、活产率比较差异无统计学意义(P>0.05)。结论 PPOS方案促排卵方法简单、费用低,已较大规模的成功助孕DOR患者,但在高龄DOR患者中易发生卵子早排。拮抗剂方案卵子利用度高,优质胚胎率、可用胚胎率及临床妊娠结局与PPOS方案相当,且可以新鲜移植,缩短了患者周期内妊娠时间,近年来更多地应用于DOR患者,但启动周期总费用较高。在临床工作中,应根据DOR患者具体情况,严格掌握不同促排卵方案的适应证与禁忌症,制定安全、有效、个体化的促排卵方案,以获得良好的妊娠结局。 展开更多
关键词 卵巢储备功能减退 ppoS方案 拮抗剂方案
下载PDF
Channel assignment and power allocation for throughput improvement with PPO in B5G heterogeneous edge networks
7
作者 Xiaoming He Yingchi Mao +3 位作者 Yinqiu Liu Ping Ping Yan Hong Han Hu 《Digital Communications and Networks》 SCIE CSCD 2024年第1期109-116,共8页
In Beyond the Fifth Generation(B5G)heterogeneous edge networks,numerous users are multiplexed on a channel or served on the same frequency resource block,in which case the transmitter applies coding and the receiver u... In Beyond the Fifth Generation(B5G)heterogeneous edge networks,numerous users are multiplexed on a channel or served on the same frequency resource block,in which case the transmitter applies coding and the receiver uses interference cancellation.Unfortunately,uncoordinated radio resource allocation can reduce system throughput and lead to user inequity,for this reason,in this paper,channel allocation and power allocation problems are formulated to maximize the system sum rate and minimum user achievable rate.Since the construction model is non-convex and the response variables are high-dimensional,a distributed Deep Reinforcement Learning(DRL)framework called distributed Proximal Policy Optimization(PPO)is proposed to allocate or assign resources.Specifically,several simulated agents are trained in a heterogeneous environment to find robust behaviors that perform well in channel assignment and power allocation.Moreover,agents in the collection stage slow down,which hinders the learning of other agents.Therefore,a preemption strategy is further proposed in this paper to optimize the distributed PPO,form DP-PPO and successfully mitigate the straggler problem.The experimental results show that our mechanism named DP-PPO improves the performance over other DRL methods. 展开更多
关键词 B5G Heterogeneous edge networks ppo Channel assignment Power allocation THROUGHPUT
下载PDF
基于强化学习PPO算法的上市公司投资组合管理
8
作者 代一方 《中国管理信息化》 2024年第5期140-143,共4页
传统的投资组合管理方法往往依赖于经验规则或数学模型,难以充分利用市场信息和动态调整投资策略。为了解决这一问题,文章提出一种基于强化学习PPO(Proximal Policy Optimization)算法的新方法。使用上市公司的历史数据进行训练和测试,... 传统的投资组合管理方法往往依赖于经验规则或数学模型,难以充分利用市场信息和动态调整投资策略。为了解决这一问题,文章提出一种基于强化学习PPO(Proximal Policy Optimization)算法的新方法。使用上市公司的历史数据进行训练和测试,与传统投资策略和其他强化学习算法进行比较,实验结果表明,基于强化学习PPO算法的投资组合管理方法在投资回报率和风险控制方面取得了显著的改进。 展开更多
关键词 强化学习 ppo算法 投资组合管理 上市公司
下载PDF
PPOS方案、LPOS方案和拮抗剂方案在POR患者IVF/ICSI-ET中的临床应用效果
9
作者 陈琤 《中文科技期刊数据库(引文版)医药卫生》 2024年第7期0001-0004,共4页
分析卵泡期外源性高孕激素下促排卵方案(progestin-primed ovarian stimulation,PPOS),黄体期内源性高孕激素下促排卵(luteal-phase ovarian stimulation,LPOS)方案和拮抗剂方案在高龄卵巢低反应((poor ovarian response,POR)患者体外受... 分析卵泡期外源性高孕激素下促排卵方案(progestin-primed ovarian stimulation,PPOS),黄体期内源性高孕激素下促排卵(luteal-phase ovarian stimulation,LPOS)方案和拮抗剂方案在高龄卵巢低反应((poor ovarian response,POR)患者体外受精/卵胞质内单精子注射-胚胎移植(in vitro fertilization/intra cytoplasmicsperm injection-embryo transfer,IVF/ICSI-ET)助孕中的临床应用效果。方法 选取本院2023年01月至2023年12月间100例IVF/ICSI-ET助孕POR患者作为观察对象,依据促排卵方案不同,分为3组,对照组(拮抗剂方案)(38例)、观察1组(PPOS方案)(32例)、观察2组(LPOS方案)(30例),比较应用效果。结果 观察1组、观察2组促排卵周期资料无统计学意义(P>0.05),但优于对照组(P<0.05);获卵数、周期取消率、卵裂数等实验室指标,观察1组、观察2组优于对照组(P<0.05)。结论 与拮抗剂相比,LPOS、PPOS方案更好,均可起到显著促排卵效果。 展开更多
关键词 ppoS LPOS 拮抗剂 POR IVF/ICSI-ET 实验室指标R714
下载PDF
基于PPO算法的光储式充电站储能运行策略
10
作者 房群 《电工技术》 2024年第2期97-100,共4页
电动汽车的随机充电与光伏出力的波动特性给光储式充电站的经济高效运行提出了新的要求。为此,提出了一种基于深度强化学习近端策略优化(Proximal Policy Optimization,PPO)算法的光储式充电站储能运行策略。首先,对光储式充电站系统结... 电动汽车的随机充电与光伏出力的波动特性给光储式充电站的经济高效运行提出了新的要求。为此,提出了一种基于深度强化学习近端策略优化(Proximal Policy Optimization,PPO)算法的光储式充电站储能运行策略。首先,对光储式充电站系统结构进行了分析,并建立了以综合运行成本最小为目标的储能运行模型。其次,将该模型转化为马尔科夫决策过程,并采用深度强化学习PPO算法进行训练求解。最后,在一个光储式充电站中进行算例仿真,验证所提策略的有效性。 展开更多
关键词 光储式充电站 储能运行策略 深度强化学习 近端策略优化
下载PDF
拮抗剂方案和PPOS方案在波塞冬预期低预后患者中的促排卵结局分析 被引量:2
11
作者 张睿 孙玉华 孙玉琴 《生殖医学杂志》 CAS 2023年第5期677-684,共8页
目的 探索拮抗剂方案和高孕激素状态下促排卵(PPOS)方案对符合波塞冬(POSEIDON)分类标准中预期低预后人群的促排卵结局。方法 回顾性分析2016年9月1日至2022年6月1日就诊于淄博市妇幼保健院生殖医学中心、符合POSEIDON标准预期低预后患... 目的 探索拮抗剂方案和高孕激素状态下促排卵(PPOS)方案对符合波塞冬(POSEIDON)分类标准中预期低预后人群的促排卵结局。方法 回顾性分析2016年9月1日至2022年6月1日就诊于淄博市妇幼保健院生殖医学中心、符合POSEIDON标准预期低预后患者的临床资料(共111例患者,149个促排卵周期)。根据促排卵方案不同分为拮抗剂组(69个周期)和PPOS组(80个周期),比较两组患者的一般资料及促排卵实验室指标;又按照年龄不同分为低龄组(年龄<35岁,POSEIDON标准组3,共53个周期)和高龄组(年龄≥35岁,POSEIDON标准组4,共96个周期),分析不同年龄分层中不同促排卵方案下的促排卵结局。结果 拮抗剂组中1个周期因卵泡早排未取卵,12个周期无可利用胚胎;PPOS组中3个周期未获卵,20个周期无可利用胚胎。拮抗剂组和PPOS组的一般资料比较均无显著性差异(P>0.05);拮抗剂组Gn天数及Gn用量均显著低于PPOS组(P<0.05),HCG日LH水平显著高于PPOS组(P<0.05);两组间获卵总数、正常受精率、可移植胚胎率、优胚率、卵泡早排率、未获卵率、无可移植胚胎率比较均无显著性差异(P>0.05)。低龄组患者中拮抗剂组Gn用量、获卵总数、成熟卵子数、2PN数、优胚数均显著低于PPOS组(P<0.05),拮抗剂组HCG日LH水平显著高于PPOS组(P<0.05);高龄组患者中拮抗剂组Gn用量显著低于PPOS组(P<0.05),其余指标均无显著性差异(P>0.05)。结论 拮抗剂方案和PPOS方案应用于POSEIDON标准预期低预后患者,二者可获得相似的促排卵结局。对于低龄预期低预后患者可优先考虑PPOS方案;而对于高龄预期低预后患者,在考虑时间与经济成本方面,拮抗剂方案可能优于PPOS方案。 展开更多
关键词 波塞冬标准 卵巢低反应 拮抗剂方案 高孕激素状态下促排卵方案
下载PDF
基于改进型PPO算法的公寓安全预警模型
12
作者 周亚凤 崔艳春 《信息化研究》 2023年第6期15-20,共6页
随着城市化的加速和公寓建筑的快速增长,确保居民的安全已成为当务之急。本文深入探讨了基于改进型近端策略优化(PPO)算法的公寓安全预警模型的开发。引入了一种新的深度学习架构,作为实时分析和预测潜在安全威胁的核心技术。实验结果表... 随着城市化的加速和公寓建筑的快速增长,确保居民的安全已成为当务之急。本文深入探讨了基于改进型近端策略优化(PPO)算法的公寓安全预警模型的开发。引入了一种新的深度学习架构,作为实时分析和预测潜在安全威胁的核心技术。实验结果表明,改进后的PPO算法在准确性、效率和响应时间方面明显优于传统方法。此外,该系统能够及时提供警报,确保公寓居民的安全。本文不仅强调了深度学习在安全和安防应用中的潜力,而且为智能生活环境领域的未来发展奠定了基础。 展开更多
关键词 改进型近端策略优化算法 算法优化 公寓安全 预警
下载PDF
基于PPO算法的无人机近距空战自主引导方法 被引量:3
13
作者 邱妍 赵宝奇 +1 位作者 邹杰 刘仲凯 《电光与控制》 CSCD 北大核心 2023年第1期8-14,共7页
针对无人机近距空战的自主决策问题,提出了一种基于近端策略优化(PPO)算法的无人机自主引导方法。针对敌我距离、角度、速度以及任务约束等信息重塑奖励,建立了无人机三自由度模型,在速度坐标系上构建强化学习的状态和动作,分别对结合... 针对无人机近距空战的自主决策问题,提出了一种基于近端策略优化(PPO)算法的无人机自主引导方法。针对敌我距离、角度、速度以及任务约束等信息重塑奖励,建立了无人机三自由度模型,在速度坐标系上构建强化学习的状态和动作,分别对结合了全连接神经网络的PPO算法(标准PPO算法)和长短时记忆网络的PPO算法(改进PPO算法)模型进行了仿真训练。根据训练的结果可以证明,相比于标准PPO算法,所提的改进PPO算法能够更有效地处理与时间序列高度相关的无人机自主引导任务。 展开更多
关键词 近距空战 近端策略优化 自主引导 长短时记忆网络
下载PDF
基于改进PPO算法的机器人局部路径规划 被引量:5
14
作者 刘国名 李彩虹 +3 位作者 李永迪 张国胜 张耀玉 高腾腾 《计算机工程》 CAS CSCD 北大核心 2023年第2期119-126,135,共9页
利用强化学习训练机器人局部路径规划模型存在算法收敛速度慢、易陷入死锁区域导致目标不可达等问题。对传统近端策略优化(PPO)算法进行改进,引入长短期记忆(LSTM)神经网络并设计虚拟目标点法,提出LSTM-PPO算法。将PPO神经网络结构中的... 利用强化学习训练机器人局部路径规划模型存在算法收敛速度慢、易陷入死锁区域导致目标不可达等问题。对传统近端策略优化(PPO)算法进行改进,引入长短期记忆(LSTM)神经网络并设计虚拟目标点法,提出LSTM-PPO算法。将PPO神经网络结构中的全连接层替换为LSTM记忆单元,控制样本信息的记忆和遗忘程度,优先学习奖励值高的样本,从而更快地累积奖励优化模型。在此基础上,加入虚拟目标点,通过雷达传感器收集的环境信息判断机器人陷入死锁区域时弃用目标点给予机器人的引导,使机器人走出陷阱区域并趋向目标点,减少在死锁区域不必要的训练。分别在特殊障碍物场景和混合障碍物场景中对LSTM-PPO算法进行仿真验证,结果表明,与传统PPO算法和改进算法SDAS-PPO相比,该算法在两种场景训练中均能最快到达奖励峰值,可加快模型收敛速度,减少冗余路段,优化路径平滑度并缩短路径长度。 展开更多
关键词 机器人 局部路径规划 长短期记忆神经网络 近端策略优化算法 虚拟目标点
下载PDF
基于PPO算法的攻击路径发现与寻优方法 被引量:1
15
作者 张国敏 张少勇 张津威 《信息网络安全》 CSCD 北大核心 2023年第9期47-57,共11页
基于策略网络选择渗透动作发现最优攻击路径,是自动化渗透测试的一项关键技术。然而,现有方法在训练过程中存在无效动作过多、收敛速度慢等问题。为了解决这些问题,文章将PPO(Proximal Policy Optimization)算法用于解决攻击路径寻优问... 基于策略网络选择渗透动作发现最优攻击路径,是自动化渗透测试的一项关键技术。然而,现有方法在训练过程中存在无效动作过多、收敛速度慢等问题。为了解决这些问题,文章将PPO(Proximal Policy Optimization)算法用于解决攻击路径寻优问题,并提出带有渗透动作选择模块的改进型PPO算法IPPOPAS(Improved PPO with Penetration Action Selection),该算法在获取回合经验时,根据渗透测试场景进行动作筛选。文章设计实现IPPOPAS算法的各个组件,包括策略网络、价值网络和渗透动作选择模块等,对动作选择过程进行改进,并进行参数调优和算法优化,提高了算法的性能和效率。实验结果表明,IPPOPAS算法在特定网络场景中的收敛速度优于传统深度强化学习算法DQN(Deep Q Network)及其改进算法,并且随着主机中漏洞数量的增加,该算法的收敛速度更快。此外,实验还验证了在网络规模扩大的情况下IPPOPAS算法的有效性。 展开更多
关键词 自动化渗透测试 策略网络 ppo算法 攻击路径发现
下载PDF
基于PPO算法的仿生鱼循迹智能控制
16
作者 李云飞 严嫏 +2 位作者 张来平 邓小刚 邹舒帆 《计算机系统应用》 2023年第9期230-238,共9页
仿生鱼具有广阔的工程应用前景,对于仿生鱼的控制,首先要解决的是循迹问题.然而,现有的基于CFD方式和传统控制算法的鱼游控制方法存在训练数据获取成本高、控制不稳定等缺点.本文提出了基于PPO算法的仿生鱼循迹智能控制方法:使用代理模... 仿生鱼具有广阔的工程应用前景,对于仿生鱼的控制,首先要解决的是循迹问题.然而,现有的基于CFD方式和传统控制算法的鱼游控制方法存在训练数据获取成本高、控制不稳定等缺点.本文提出了基于PPO算法的仿生鱼循迹智能控制方法:使用代理模型替代CFD方式产生训练数据,提高数据的产生效率;引入高效的PPO算法,加快策略模型的学习速度,提高训练数据的效用;引入速度参数,解决鱼体在急转弯区域无法顺利循迹的问题.实验表明,我们提出的方法在多种类型的路径上均具有更快的收敛速度和更加稳定的控制能力,在仿生机器鱼的智能控制方面具有重要的指导意义. 展开更多
关键词 深度强化学习 仿生鱼 智能控制 代理模型 ppo
下载PDF
PPO/SEBS/SEBS-g-MAH共混物的阻燃性能研究
17
作者 陶宇 陆红霞 +2 位作者 邵为 肖雨婷 高炜斌 《化工新型材料》 CAS CSCD 北大核心 2023年第7期145-148,共4页
以苯乙烯-乙烯/丁二烯-苯乙烯嵌段共聚物(SEBS)为弹性体改性剂,SEBS-g-MAH为相容剂,红磷和Mg(OH)_(2)作为阻燃剂,采用双螺杆挤出技术,制备了阻燃聚苯醚(PPO)/SEBS/SEBS-g-MAH共混物。结果表明:当红磷用量为15份时,Mg(OH)_(2)仅用80份,P... 以苯乙烯-乙烯/丁二烯-苯乙烯嵌段共聚物(SEBS)为弹性体改性剂,SEBS-g-MAH为相容剂,红磷和Mg(OH)_(2)作为阻燃剂,采用双螺杆挤出技术,制备了阻燃聚苯醚(PPO)/SEBS/SEBS-g-MAH共混物。结果表明:当红磷用量为15份时,Mg(OH)_(2)仅用80份,PPO/弹性体共混物的极限氧指数(LOI)就能达到28%,燃烧等级达UL94 V-0级,同时燃烧时的热释放速率(HRR)及生烟速率(SPR)均大幅降低。 展开更多
关键词 聚苯醚 苯乙烯-乙烯/丁二烯-苯乙烯嵌段共聚物 复配 阻燃性能
下载PDF
一种基于PPO的AUV网箱巡检方法 被引量:1
18
作者 颜承昊 林远山 +2 位作者 李然 于红 王芳 《计算机与数字工程》 2023年第1期93-97,共5页
网箱巡检是网箱养殖的必要环节。随着渔业设施地智能化发展,使用AUV实现自主网箱巡检是未来的发展趋势。在水下难以得到机器人的精确动力学模型。为此,论文提出基于强化学习算法PPO的水下机器人自主网箱巡检方法。以声呐数据作为感知输... 网箱巡检是网箱养殖的必要环节。随着渔业设施地智能化发展,使用AUV实现自主网箱巡检是未来的发展趋势。在水下难以得到机器人的精确动力学模型。为此,论文提出基于强化学习算法PPO的水下机器人自主网箱巡检方法。以声呐数据作为感知输入,根据航向、偏离距离等因素设计了多约束奖励函数,利用PPO算法学习出最优的网箱巡检控制策略。搭建了水下网箱养殖仿真环境,在该环境下的仿真结果表明,在学习到的策略的控制下,AUV能够实现网箱的自主绕行巡检,轨迹稳定平滑,验证了论文方法的有效性。 展开更多
关键词 网箱巡检 AUV ppo
下载PDF
PEO-PPO-PEO自组装2000-2022研究趋势-文献计量学分析
19
作者 徐婷秀 吴江渝 +1 位作者 王大威 曾小平 《云南化工》 CAS 2023年第5期10-16,共7页
采用文献计量法对2000-2022年期间PEO-PPO-PEO嵌段共聚物在水溶液中自组装行为的文献进行了综述,分析了发表文章的特点和研究趋势。结果表明:近些年PEO-PPO-PEO嵌段共聚物自组装文献的数量逐年增长,无论在学术成果的数量还是质量方面,... 采用文献计量法对2000-2022年期间PEO-PPO-PEO嵌段共聚物在水溶液中自组装行为的文献进行了综述,分析了发表文章的特点和研究趋势。结果表明:近些年PEO-PPO-PEO嵌段共聚物自组装文献的数量逐年增长,无论在学术成果的数量还是质量方面,中国都处于较高的学术地位,为该研究领域的发展做出了巨大贡献;除此之外,文献计量学研究表明超级电容器和聚合物稳定性是该领域的研究热点,可能在未来几年成为一个有前景的研究领域;介孔材料制备和作为药物载体是PEO-PPO-PEO嵌段共聚物最热门的应用方向。此文献计量学研究可为相关研究人员提供独特视角和一定的参考。 展开更多
关键词 文献计量法 PEO-ppo-PEO 自组装 研究趋势
下载PDF
基于PPO2强化学习算法的空间站轨道预报方法
20
作者 雷骐玮 张洪波 《中国空间科学技术》 CSCD 北大核心 2023年第4期93-103,共11页
影响热层大气密度的因素较多且变化机理复杂,很难建立准确的大气模型,导致大气阻力摄动成为空间站轨道预报精度的主要影响因素之一。研究了基于PPO2强化学习算法的轨道预报方法,利用强化学习网络修正大气模型中的相关参数,提高了轨道预... 影响热层大气密度的因素较多且变化机理复杂,很难建立准确的大气模型,导致大气阻力摄动成为空间站轨道预报精度的主要影响因素之一。研究了基于PPO2强化学习算法的轨道预报方法,利用强化学习网络修正大气模型中的相关参数,提高了轨道预报精度。首先建立了空间站的轨道动力学模型,分析了大气模型参数的误差特性,设计了基于强化学习的轨道动力学模型修正方案。选择PPO2算法作为强化学习算法,设计了训练参量与强化学习网络模型,生成了PPO2算法的训练和测试样本,完成了仿真训练与测试。仿真结果表明,该方案能有效补偿大气密度模型不准确造成的轨道预报误差,提高空间站轨道预报的精度和效率。 展开更多
关键词 大气阻力摄动 空间站 轨道预报 轨道动力学模型修正 ppo2算法
下载PDF
上一页 1 2 73 下一页 到第
使用帮助 返回顶部