期刊文献+
共找到917篇文章
< 1 2 46 >
每页显示 20 50 100
Improved Double Deep Q Network Algorithm Based on Average Q-Value Estimation and Reward Redistribution for Robot Path Planning
1
作者 Yameng Yin Lieping Zhang +3 位作者 Xiaoxu Shi Yilin Wang Jiansheng Peng Jianchu Zou 《Computers, Materials & Continua》 SCIE EI 2024年第11期2769-2790,共22页
By integrating deep neural networks with reinforcement learning,the Double Deep Q Network(DDQN)algorithm overcomes the limitations of Q-learning in handling continuous spaces and is widely applied in the path planning... By integrating deep neural networks with reinforcement learning,the Double Deep Q Network(DDQN)algorithm overcomes the limitations of Q-learning in handling continuous spaces and is widely applied in the path planning of mobile robots.However,the traditional DDQN algorithm suffers from sparse rewards and inefficient utilization of high-quality data.Targeting those problems,an improved DDQN algorithm based on average Q-value estimation and reward redistribution was proposed.First,to enhance the precision of the target Q-value,the average of multiple previously learned Q-values from the target Q network is used to replace the single Q-value from the current target Q network.Next,a reward redistribution mechanism is designed to overcome the sparse reward problem by adjusting the final reward of each action using the round reward from trajectory information.Additionally,a reward-prioritized experience selection method is introduced,which ranks experience samples according to reward values to ensure frequent utilization of high-quality data.Finally,simulation experiments are conducted to verify the effectiveness of the proposed algorithm in fixed-position scenario and random environments.The experimental results show that compared to the traditional DDQN algorithm,the proposed algorithm achieves shorter average running time,higher average return and fewer average steps.The performance of the proposed algorithm is improved by 11.43%in the fixed scenario and 8.33%in random environments.It not only plans economic and safe paths but also significantly improves efficiency and generalization in path planning,making it suitable for widespread application in autonomous navigation and industrial automation. 展开更多
关键词 Double Deep q network path planning average q-value estimation reward redistribution mechanism reward-prioritized experience selection method
下载PDF
基于Deep Q Networks的交通指示灯控制方法 被引量:2
2
作者 颜文胜 吕红兵 《计算机测量与控制》 2021年第6期93-97,共5页
交通指示灯的智能控制是当前智能交通研究中的热点问题;为更加及时有效地自适应动态交通,进一步提升街道路口车流效率,提出了一种基于Deep Q Networks的道路指示灯控制方法;该方法基于道路指示灯控制问题描述,以状态、行动和奖励三要素... 交通指示灯的智能控制是当前智能交通研究中的热点问题;为更加及时有效地自适应动态交通,进一步提升街道路口车流效率,提出了一种基于Deep Q Networks的道路指示灯控制方法;该方法基于道路指示灯控制问题描述,以状态、行动和奖励三要素构建道路指示灯控制的强化学习模型,提出基于Deep Q Networks的道路指示控制方法流程;为检验方法的有效性,以浙江省台州市市府大道与东环大道交叉路口交通数据在SUMO中进行方法比对与仿真实验;实验结果表明,基于Deep Q Networks的交通指示灯控制方法在交通指示等的控制与调度中具有更高的效率和自主性,更有利于改善路口车流的吞吐量,对道路路口车流的驻留时延、队列长度和等待时间等方面的优化具有更好的性能。 展开更多
关键词 道路指示灯 Deep q networks 智能交通 信号控制
下载PDF
基于Deep Q Networks的机械臂推动和抓握协同控制 被引量:3
3
作者 贺道坤 《现代制造工程》 CSCD 北大核心 2021年第7期23-28,共6页
针对目前机械臂在复杂场景应用不足以及推动和抓握自主协同控制研究不多的现状,发挥深度Q网络(Deep Q Networks)无规则、自主学习优势,提出了一种基于Deep Q Networks的机械臂推动和抓握协同控制方法。通过2个完全卷积网络将场景信息映... 针对目前机械臂在复杂场景应用不足以及推动和抓握自主协同控制研究不多的现状,发挥深度Q网络(Deep Q Networks)无规则、自主学习优势,提出了一种基于Deep Q Networks的机械臂推动和抓握协同控制方法。通过2个完全卷积网络将场景信息映射至推动或抓握动作,经过马尔可夫过程,采取目光长远奖励机制,选取最佳行为函数,实现对复杂场景机械臂推动和抓握动作的自主协同控制。在仿真和真实场景实验中,该方法在复杂场景中能够通过推动和抓握自主协同操控实现对物块的快速抓取,并获得更高的动作效率和抓取成功率。 展开更多
关键词 机械臂 抓握 推动 深度q网络(Deep q networks) 协同控制
下载PDF
Improved Double Deep Q Network-Based Task Scheduling Algorithm in Edge Computing for Makespan Optimization
4
作者 Lei Zeng Qi Liu +1 位作者 Shigen Shen Xiaodong Liu 《Tsinghua Science and Technology》 SCIE EI CAS CSCD 2024年第3期806-817,共12页
Edge computing nodes undertake an increasing number of tasks with the rise of business density.Therefore,how to efficiently allocate large-scale and dynamic workloads to edge computing resources has become a critical ... Edge computing nodes undertake an increasing number of tasks with the rise of business density.Therefore,how to efficiently allocate large-scale and dynamic workloads to edge computing resources has become a critical challenge.This study proposes an edge task scheduling approach based on an improved Double Deep Q Network(DQN),which is adopted to separate the calculations of target Q values and the selection of the action in two networks.A new reward function is designed,and a control unit is added to the experience replay unit of the agent.The management of experience data are also modified to fully utilize its value and improve learning efficiency.Reinforcement learning agents usually learn from an ignorant state,which is inefficient.As such,this study proposes a novel particle swarm optimization algorithm with an improved fitness function,which can generate optimal solutions for task scheduling.These optimized solutions are provided for the agent to pre-train network parameters to obtain a better cognition level.The proposed algorithm is compared with six other methods in simulation experiments.Results show that the proposed algorithm outperforms other benchmark methods regarding makespan. 展开更多
关键词 edge computing task scheduling reinforcement learning MAKESPAN Double Deep q network(DqN)
原文传递
Artificial Potential Field Incorporated Deep-Q-Network Algorithm for Mobile Robot Path Prediction 被引量:3
5
作者 A.Sivaranjani B.Vinod 《Intelligent Automation & Soft Computing》 SCIE 2023年第1期1135-1150,共16页
Autonomous navigation of mobile robots is a challenging task that requires them to travel from their initial position to their destination without collision in an environment.Reinforcement Learning methods enable a st... Autonomous navigation of mobile robots is a challenging task that requires them to travel from their initial position to their destination without collision in an environment.Reinforcement Learning methods enable a state action function in mobile robots suited to their environment.During trial-and-error interaction with its surroundings,it helps a robot tofind an ideal behavior on its own.The Deep Q Network(DQN)algorithm is used in TurtleBot 3(TB3)to achieve the goal by successfully avoiding the obstacles.But it requires a large number of training iterations.This research mainly focuses on a mobility robot’s best path prediction utilizing DQN and the Artificial Potential Field(APF)algorithms.First,a TB3 Waffle Pi DQN is built and trained to reach the goal.Then the APF shortest path algorithm is incorporated into the DQN algorithm.The proposed planning approach is compared with the standard DQN method in a virtual environment based on the Robot Operation System(ROS).The results from the simulation show that the combination is effective for DQN and APF gives a better optimal path and takes less time when compared to the conventional DQN algo-rithm.The performance improvement rate of the proposed DQN+APF in comparison with DQN in terms of the number of successful targets is attained by 88%.The performance of the proposed DQN+APF in comparison with DQN in terms of average time is achieved by 0.331 s.The performance of the proposed DQN+APF in comparison with DQN average rewards in which the positive goal is attained by 85%and the negative goal is attained by-90%. 展开更多
关键词 Artificial potentialfield deep reinforcement learning mobile robot turtle bot deep q network path prediction
下载PDF
一种基于DQN的去中心化优先级卸载策略
6
作者 张俊娜 李天泽 +1 位作者 赵晓焱 袁培燕 《计算机工程》 CAS CSCD 北大核心 2024年第9期235-245,共11页
边缘计算(EC)可在网络边缘为用户提供低延迟、高响应的服务。因此,资源利用率高、时延低的任务卸载策略成为研究的热门方向。但大部分现有的任务卸载研究是基于中心化的架构,通过中心化设施制定卸载策略并进行资源调度,容易受到单点故... 边缘计算(EC)可在网络边缘为用户提供低延迟、高响应的服务。因此,资源利用率高、时延低的任务卸载策略成为研究的热门方向。但大部分现有的任务卸载研究是基于中心化的架构,通过中心化设施制定卸载策略并进行资源调度,容易受到单点故障的影响,且会产生较多的能耗和较高的时延。针对以上问题,提出一种基于深度Q网络(DQN)的去中心化优先级(DP-DQN)卸载策略。首先,设置通信矩阵模拟现实中边缘服务器有限的通信状态;其次,通过对任务设定优先级,使任务可以在不同边缘服务器之间跳转,保证各边缘服务器均可以自主制定卸载策略,完成任务卸载的去中心化;最后,根据任务的跳转次数为任务分配更多的计算资源,提高资源利用效率和优化效果。为了验证所提策略的有效性,针对不同DQN下参数的收敛性能进行了研究对比,实验结果表明,在不同测试情景下,DP-DQN的性能均优于本地算法、完全贪婪算法和多目标任务卸载算法,性能可提升约11%~19%。 展开更多
关键词 边缘计算 任务卸载 资源分配 去中心化 优先级 深度q网络
下载PDF
基于D3QN的火力方案优选方法
7
作者 佘维 岳瀚 +1 位作者 田钊 孔德锋 《火力与指挥控制》 CSCD 北大核心 2024年第8期166-174,共9页
针对在多类弹药协同攻击地面工事类目标任务中火力方案优选效率低的问题,提出一种基于双层决斗DQN(dueling double deep Q network,D3QN)的火力方案优选方法。该方法将打击过程建模为马尔科夫决策过程(Markov decision processes,MDP),... 针对在多类弹药协同攻击地面工事类目标任务中火力方案优选效率低的问题,提出一种基于双层决斗DQN(dueling double deep Q network,D3QN)的火力方案优选方法。该方法将打击过程建模为马尔科夫决策过程(Markov decision processes,MDP),设计其状态空间和动作空间,设计综合奖励函数激励火力方案生成策略优化,使智能体通过强化学习框架对策略进行自主训练。仿真实验结果表明,该方法对地面工事类目标的火力方案进行决策,相较于传统启发式智能算法能够获得较优的火力方案,其计算效率和结果的稳定性相较于传统深度强化学习算法具有更明显的优势。 展开更多
关键词 深度强化学习 深度q网络 D3qN 组合优化 火力方案优选
下载PDF
基于威胁机制-双重深度Q网络的多功能雷达认知干扰决策
8
作者 黄湘松 查力根 潘大鹏 《应用科技》 CAS 2024年第4期145-153,共9页
针对传统深度Q网络(deep Q network,DQN)在雷达认知干扰决策中容易产生经验遗忘,从而重复执行错误决策的问题,本文提出了一种基于威胁机制双重深度Q网络(threat warning mechanism-double DQN,TW-DDQN)的认知干扰决策方法,该机制包含威... 针对传统深度Q网络(deep Q network,DQN)在雷达认知干扰决策中容易产生经验遗忘,从而重复执行错误决策的问题,本文提出了一种基于威胁机制双重深度Q网络(threat warning mechanism-double DQN,TW-DDQN)的认知干扰决策方法,该机制包含威胁网络和经验回放2种机制。为了验证算法的有效性,在考虑多功能雷达(multifunctional radar,MFR)工作状态与干扰样式之间的关联性的前提下,搭建了基于认知电子战的仿真环境,分析了雷达与干扰机之间的对抗博弈过程,并且在使用TW-DDQN进行训练的过程中,讨论了威胁半径与威胁步长参数的不同对训练过程的影响。仿真实验结果表明,干扰机通过自主学习成功与雷达进行了长时间的博弈,有80%的概率成功突防,训练效果明显优于传统DQN和优先经验回放DDQN(prioritized experience replay-DDQN,PER-DDQN)。 展开更多
关键词 干扰决策 认知电子战 深度q网络 强化学习 干扰机 多功能雷达 经验回放 恒虚警率探测
下载PDF
Real-time UAV path planning based on LSTM network
9
作者 ZHANG Jiandong GUO Yukun +3 位作者 ZHENG Lihui YANG Qiming SHI Guoqing WU Yong 《Journal of Systems Engineering and Electronics》 SCIE CSCD 2024年第2期374-385,共12页
To address the shortcomings of single-step decision making in the existing deep reinforcement learning based unmanned aerial vehicle(UAV)real-time path planning problem,a real-time UAV path planning algorithm based on... To address the shortcomings of single-step decision making in the existing deep reinforcement learning based unmanned aerial vehicle(UAV)real-time path planning problem,a real-time UAV path planning algorithm based on long shortterm memory(RPP-LSTM)network is proposed,which combines the memory characteristics of recurrent neural network(RNN)and the deep reinforcement learning algorithm.LSTM networks are used in this algorithm as Q-value networks for the deep Q network(DQN)algorithm,which makes the decision of the Q-value network has some memory.Thanks to LSTM network,the Q-value network can use the previous environmental information and action information which effectively avoids the problem of single-step decision considering only the current environment.Besides,the algorithm proposes a hierarchical reward and punishment function for the specific problem of UAV real-time path planning,so that the UAV can more reasonably perform path planning.Simulation verification shows that compared with the traditional feed-forward neural network(FNN)based UAV autonomous path planning algorithm,the RPP-LSTM proposed in this paper can adapt to more complex environments and has significantly improved robustness and accuracy when performing UAV real-time path planning. 展开更多
关键词 deep q network path planning neural network unmanned aerial vehicle(UAV) long short-term memory(LSTM)
下载PDF
基于FL-MADQN算法的NR-V2X车载通信频谱资源分配
10
作者 李中捷 邱凡 +2 位作者 姜家祥 李江虹 贾玉婷 《中南民族大学学报(自然科学版)》 CAS 2024年第3期401-407,共7页
针对5G新空口-车联网(New Radio-Vehicle to Everything,NR-V2X)场景下车对基础设施(Vehicle to Infrastructure,V2I)和车对车(Vehicle to Vehicle,V2V)共享上行通信链路的频谱资源分配问题,提出了一种联邦-多智能体深度Q网络(Federated... 针对5G新空口-车联网(New Radio-Vehicle to Everything,NR-V2X)场景下车对基础设施(Vehicle to Infrastructure,V2I)和车对车(Vehicle to Vehicle,V2V)共享上行通信链路的频谱资源分配问题,提出了一种联邦-多智能体深度Q网络(Federated Learning-Multi-Agent Deep Q Network,FL-MADQN)算法.该分布式算法中,每个车辆用户作为一个智能体,根据获取的本地信道状态信息,以网络信道容量最佳为目标函数,采用DQN算法训练学习本地网络模型.采用联邦学习加快以及稳定各智能体网络模型训练的收敛速度,即将各智能体的本地模型上传至基站进行聚合形成全局模型,再将全局模型下发至各智能体更新本地模型.仿真结果表明:与传统分布式多智能体DQN算法相比,所提出的方案具有更快的模型收敛速度,并且当车辆用户数增大时仍然保证V2V链路的通信效率以及V2I链路的信道容量. 展开更多
关键词 车联网 资源分配 深度q网络 联邦学习
下载PDF
演化算法的DQN网络参数优化方法
11
作者 曹子建 郭瑞麒 +2 位作者 贾浩文 李骁 徐恺 《西安工业大学学报》 CAS 2024年第2期219-231,共13页
为了解决DQN(Deep Q Network)在早期会出现盲目搜索、勘探利用不均并导致整个算法收敛过慢的问题,从探索前期有利于算法训练的有效信息获取与利用的角度出发,以差分演化(Differential Evolution)算法为例,提出了一种基于演化算法优化DQ... 为了解决DQN(Deep Q Network)在早期会出现盲目搜索、勘探利用不均并导致整个算法收敛过慢的问题,从探索前期有利于算法训练的有效信息获取与利用的角度出发,以差分演化(Differential Evolution)算法为例,提出了一种基于演化算法优化DQN网络参数以加快其收敛速度的方法(DE-DQN)。首先,将DQN的网络参数编码为演化个体;其次,分别采用“运行步长”和“平均回报”两种适应度函数评价方式;利用CartPole控制问题进行仿真对比,验证了两种评价方式的有效性。最后,实验结果表明,在智能体训练5 000代时所提出的改进算法,以“运行步长”为适应度函数时,在运行步长、平均回报和累计回报上分别提高了82.7%,18.1%和25.1%,并优于改进DQN算法;以“平均回报”为适应度函数时,在运行步长、平均回报和累计回报上分别提高了74.9%,18.5%和13.3%并优于改进DQN算法。这说明了DE-DQN算法相较于传统的DQN及其改进算法前期能获得更多有用信息,加快收敛速度。 展开更多
关键词 深度强化学习 深度q网络 收敛加速 演化算法 自动控制
下载PDF
Q学习博弈论的WSNs混合覆盖漏洞恢复
12
作者 张鸰 《机械设计与制造》 北大核心 2024年第2期22-29,共8页
针对恶劣环境下分布式无线传感器网络,为了降低成本与恢复能力,提出了一种Q学习博弈论的无线传感器网络混合覆盖漏洞恢复方法。首先设计了一种能够以分散、动态和自治的方式缩小覆盖差距的混合算法,该方法利用基于Q学习算法的博弈论概念... 针对恶劣环境下分布式无线传感器网络,为了降低成本与恢复能力,提出了一种Q学习博弈论的无线传感器网络混合覆盖漏洞恢复方法。首先设计了一种能够以分散、动态和自治的方式缩小覆盖差距的混合算法,该方法利用基于Q学习算法的博弈论概念,融合了节点重新定位和功率传输调整两种覆盖控制方案。对于所制定的潜在博弈论,传感器节点可以仅使用局部熟悉来恢复覆盖漏洞,从而减小覆盖间隙,每个传感器节点选择节点重新定位和调整感知范围。最后仿真结果表明,这里的提出的方法能够在存在连续随机覆盖漏洞条件下保持网络的整体覆盖。 展开更多
关键词 无线传感器网络 q学习 博弈论 覆盖漏洞
下载PDF
基于UPLC-Q-TOF-MS/MS联合网络药理学及分子对接研究五味清浊颗粒治疗腹泻药效物质基础和作用机制
13
作者 李伟 孙佳 +4 位作者 李思雨 余秋香 王添敏 宋慧鹏 张慧 《中南药学》 CAS 2024年第2期423-432,共10页
目的基于UPLC-Q-TOF-MS/MS技术鉴定五味清浊颗粒中的化学成分,联合网络药理学、分子对接技术探讨其治疗腹泻药效物质基础和作用机制。方法采用Eclipsepius C18色谱柱(50 mm×2.1 mm,1.8μm),以0.1%甲酸水溶液(A)-乙腈(B)为流动相进... 目的基于UPLC-Q-TOF-MS/MS技术鉴定五味清浊颗粒中的化学成分,联合网络药理学、分子对接技术探讨其治疗腹泻药效物质基础和作用机制。方法采用Eclipsepius C18色谱柱(50 mm×2.1 mm,1.8μm),以0.1%甲酸水溶液(A)-乙腈(B)为流动相进行梯度洗脱,柱温为30℃,流速为0.4 mL·min^(-1)。质谱采用电喷雾离子源(ESI)正、负离子模式,扫描范围m/z 50~2000条件下采集多级质谱碎片信息。应用网络药理学构建“核心成分-作用靶点-通路”的网络,对其潜在药效物质基础进行预测。利用AutoDock Vina进行分子对接验证。结果共鉴定出86个主要化学成分,包括生物碱类25个、黄酮类23个、有机酸类12个、鞣质类16个、苯丙素类2个、其他类化合物8个。网络药理学分析结果显示,槲皮素、木犀草素、鞣花酸、胡椒碱、山柰酚、荜茇宁主要作用于IL-6、TNF、EGFR、IFNG、IL-10、IL-8等核心靶点,调节PI3K-Akt、HIF-1、JAK-STAT等关键信号通路来发挥治疗腹泻作用。分子对接结果显示核心成分与核心靶点间具有良好的结合性能。结论该研究成功采用UPLC-Q-TOF-MS/MS技术对五味清浊颗粒化学成分进行全面分析鉴定,初步阐明其治疗腹泻的作用机制,为其药效物质基础和质量控制奠定基础。 展开更多
关键词 五味清浊颗粒 UPLC-q-TOF-MS/MS 网络药理学 分子对接 化学成分
下载PDF
基于Q-learning的自适应链路状态路由协议
14
作者 吴麒 左琳立 +2 位作者 丁建 邢智童 夏士超 《重庆邮电大学学报(自然科学版)》 CSCD 北大核心 2024年第5期945-953,共9页
针对大规模无人机自组网面临的任务需求多样性、电磁环境复杂性、节点高机动性等问题,充分考虑无人机节点高速移动的特点,基于无人机拓扑稳定度和链路通信容量指标设计了一种无人机多点中继(multi-point relay,MPR)选择方法;为了减少网... 针对大规模无人机自组网面临的任务需求多样性、电磁环境复杂性、节点高机动性等问题,充分考虑无人机节点高速移动的特点,基于无人机拓扑稳定度和链路通信容量指标设计了一种无人机多点中继(multi-point relay,MPR)选择方法;为了减少网络路由更新时间,增加无人机自组网路由策略的稳定性和可靠性,提出了一种基于Q-learning的自适应链路状态路由协议(Q-learning based adaptive link state routing,QALSR)。仿真结果表明,所提算法性能指标优于现有的主动路由协议。 展开更多
关键词 无人机自组网 路由协议 强化学习 自适应
下载PDF
基于UPLC-Q-Orbitrap HRMS及GC-MS结合网络药理学和分子对接的彝药黑根抗类风湿性关节炎的药效物质研究
15
作者 赵倩 樊锦雅 古锐 《中药与临床》 2024年第3期52-60,共9页
目的:探讨彝药黑根治疗类风湿性关节炎潜在的作用机制以及主要活性成分。方法:运用UPLC-Q-Orbitrap HRMS及GC-MS技术分析黑根的化学成分,利用Swiss Target进行活性成分的靶点筛选和预测,同时在Genecard、OMIM、Dis Ge NET等数据库中筛... 目的:探讨彝药黑根治疗类风湿性关节炎潜在的作用机制以及主要活性成分。方法:运用UPLC-Q-Orbitrap HRMS及GC-MS技术分析黑根的化学成分,利用Swiss Target进行活性成分的靶点筛选和预测,同时在Genecard、OMIM、Dis Ge NET等数据库中筛选类风湿性关节炎相关靶点,利用Cytoscape3.9.0软件构建“活性成分-靶点”网络模型,运用String数据分析平台进行蛋白互作网络分析,并且利用基因富集分析在线工具对核心靶点进行GO富集分析和KEGG通路分析,最后使用分子对接对网络药理学内容进行初步验证。结果:共鉴定出黑根化学成分78个,筛选后活性成分50个,237个潜在作用靶点与类风湿性关节炎相关,包括STAT3、AKT1、EGFR等关键靶点。通路富集分析PI3K-Akt通路、JAK-STAT等信号通路可能是黑根发挥抗类风湿性关节炎的主要途径。通过分子对接技术得出主要活性成分(异绿原酸B、异绿原酸C)与关键靶点有较好结合力。结论:研究初步表明黑根通过多成分、多靶点、多途径治疗类风湿性关节炎的作用,为后续黑根物质基础研究提供了理论依据。 展开更多
关键词 黑根 超高效液相色谱-四极杆/静电场轨道阱高分辨质谱 网络药理学 分子对接 类风湿性关节炎
下载PDF
基于深度Q网络的机器人路径规划研究综述 被引量:2
16
作者 卢锦澎 梁宏斌 《传感器与微系统》 CSCD 北大核心 2024年第6期1-5,共5页
随着深度强化学习的不断发展,深度Q网络(DQN)在机器人路径规划中得到广泛关注和研究。首先,简要介绍DQN以及Nature DQN、Double DQN、Dueling DQN和D3QN等算法的基本原理和改进思想。针对算法存在的样本获取成本高和交互效率低的问题,... 随着深度强化学习的不断发展,深度Q网络(DQN)在机器人路径规划中得到广泛关注和研究。首先,简要介绍DQN以及Nature DQN、Double DQN、Dueling DQN和D3QN等算法的基本原理和改进思想。针对算法存在的样本获取成本高和交互效率低的问题,系统梳理并总结了从奖励函数、探索能力、样本利用率等方面进行优化的研究成果和思路。最后,讨论了DQN在现代物流中进行机器人路径规划的优势,对每个场景提出了算法的优化方向,涵盖状态空间、动作空间以及奖励函数等多个关键方面。 展开更多
关键词 机器人 路径规划 深度q网络 现代物流
下载PDF
基于UPLC-Q-Exactive-Orbitrap-MS、网络药理学和实验验证探讨裸花紫珠抗H1N1活性成分及其作用机制 被引量:3
17
作者 杨颖 邵骏菁 +3 位作者 许金珂 陈岩 田景振 侯林 《天然产物研究与开发》 CAS CSCD 北大核心 2024年第2期279-292,共14页
本实验首先对裸花紫珠的提取物进行萃取,得到不同的萃取部位,然后对各部位进行抗甲型流感病毒H1N1型(H1N1)活性筛选,确定裸花紫珠乙酸乙酯萃取部位(EACN)具有较好的体外抗H1N1的活性。采用超高效液相色谱-四级杆-静电场轨道阱联用(UPLC-... 本实验首先对裸花紫珠的提取物进行萃取,得到不同的萃取部位,然后对各部位进行抗甲型流感病毒H1N1型(H1N1)活性筛选,确定裸花紫珠乙酸乙酯萃取部位(EACN)具有较好的体外抗H1N1的活性。采用超高效液相色谱-四级杆-静电场轨道阱联用(UPLC-Q-Exactive-Orbitrap-MS)技术对EACN进行定性分析。基于定性分析的结果,进一步使用数据挖掘和网络药理学,评估药物的活性成分、关键靶点和关键通路,最后使用H1N1感染BALB/c小鼠模型对预测结果进行验证。结果显示,在各个萃取部位中,乙酸乙酯部位体外抗H1N1效果最佳,半数抑制浓度(IC_(50))为51μg/mL,半数细胞毒浓度(CC_(50))为859.4μg/mL,选择指数(SI,CC_(50)/IC_(50))为16.85。从EACN中鉴定出34种化合物,在此基础上,利用网络药理学,筛选出和EACN抗H1N1相关的药物靶点67个,靶点共涉及生物过程491个,与抗H1N1相关的通路147个。H1N1感染BALB/c小鼠实验结果发现,EACN能改善H1N1感染引起的体重降低和肺指数的增加,降低小鼠肺组织的病毒载量,减轻小鼠肺组织的病理损伤,降低外周血血清中TNF-α、IFN-γ、IL-1β水平。实验结果提示EACN可能从直接抑制病毒、抗炎作用和免疫调节作用等多个途径发挥抗H1N1的作用。 展开更多
关键词 裸花紫珠 H1N1 UPLC-q-Exactive-Orbitrap-MS 网络药理学
下载PDF
基于HPLC-Q-TOF MS/MS和网络药理学的参蓉蛹草片质量标志物研究 被引量:1
18
作者 于鑫畅 韩彦琪 +4 位作者 郝艳琦 刘建庭 许浚 蒋庆峰 张铁军 《中国现代中药》 CAS 2024年第2期289-307,共19页
目的:应用高效液相色谱-四极杆飞行时间质谱法(HPLC-Q-TOF-MS/MS)建立参蓉蛹草片化学成分的检测方法,并结合网络药理学和分子对接方法分析其抗疲劳的网络调控机制、预测参蓉蛹草片的质量标志物。方法:运用HPLC-Q-TOF-MS/MS对参蓉蛹草片... 目的:应用高效液相色谱-四极杆飞行时间质谱法(HPLC-Q-TOF-MS/MS)建立参蓉蛹草片化学成分的检测方法,并结合网络药理学和分子对接方法分析其抗疲劳的网络调控机制、预测参蓉蛹草片的质量标志物。方法:运用HPLC-Q-TOF-MS/MS对参蓉蛹草片物质基础进行分析鉴定。通过PubChem获取所选化合物的结构,利用TCMSP数据库及SwissTargetPrediction获取作用靶点;通过GeneCards、TTD、OMIM数据库筛选与疲劳相关的疾病靶点,获得药物和疲劳的交集靶点;运用UniProt数据库校准靶点名称;利用STRING数据库构建交集基因蛋白质-蛋白质相互作用(PPI)网络,并运用Cytoscape 3.8. 0软件对PPI网络进行拓扑分析;最后借助Metascape在线分析核心交集基因,进行基因本体(GO)功能富集分析、京都基因与基因组百科全书(KEGG)通路富集分析,并对分析结果进行可视化。结果:通过HPLC-Q-TOF MS/MS共得到参蓉蛹草片124个化学成分,利用网络药理学对筛选出的23个化学成分进行生物信息学分析,发现其可作用于195个靶点干预33条信号通路。分子对接结果显示,活性化合物可进入受体靶点活性空腔,与其形成的对接构象合理。结论:参蓉蛹草片可通过多成分、多靶点、多途径发挥抗疲劳作用,基于HPLC-Q-TOF MS/MS,结合网络药理学和分子对接方法初步将人参皂苷类、苯乙醇苷类预测为参蓉蛹草片的质量标志物。 展开更多
关键词 参蓉蛹草片 高效液相色谱-四极杆飞行时间质谱法 网络药理学 质量标志物 抗疲劳
下载PDF
无人驾驶中运用DQN进行障碍物分类的避障方法
19
作者 刘航博 马礼 +2 位作者 李阳 马东超 傅颖勋 《计算机工程》 CAS CSCD 北大核心 2024年第11期380-389,共10页
安全是无人驾驶汽车需要考虑的首要因素,而避障问题是解决驾驶安全最有效的手段。基于学习的避障方法因其能够从环境中学习并直接从感知中做出决策的能力而受到研究者的关注。深度Q网络(DQN)作为一种流行的强化学习方法,在无人驾驶避障... 安全是无人驾驶汽车需要考虑的首要因素,而避障问题是解决驾驶安全最有效的手段。基于学习的避障方法因其能够从环境中学习并直接从感知中做出决策的能力而受到研究者的关注。深度Q网络(DQN)作为一种流行的强化学习方法,在无人驾驶避障领域取得了很大的进展,但这些方法未考虑障碍物类型对避障策略的影响。基于对障碍物的准确分类提出一种Classification Security DQN(CSDQN)的车辆行驶决策框架。根据障碍物的不同类型以及环境信息给出具有更高安全性的无人驾驶决策,达到提高无人驾驶安全性的目的。首先对检测到的障碍物根据障碍物的安全性等级进行分类,然后根据不同类型障碍物提出安全评估函数,利用位置的不确定性和基于距离的安全度量来评估安全性,接着CSDQN决策框架利用障碍物类型、相对位置信息以及安全评估函数进行不断迭代优化获得最终模型。仿真结果表明,与先进的深度强化学习进行比较,在多种障碍物的情况下,采用CSDQN方法相较于DQN和SDQN方法分别提升了43.9%和4.2%的安全性,以及17.8%和3.7%的稳定性。 展开更多
关键词 无人驾驶 深度q网络 分类避障 评估函数 安全性
下载PDF
基于改进联邦竞争深度Q网络的多微网能量管理策略
20
作者 黎海涛 刘伊然 +3 位作者 杨艳红 肖浩 谢冬雪 裴玮 《电力系统自动化》 EI CSCD 北大核心 2024年第8期174-184,共11页
目前,基于联邦深度强化学习的微网(MG)能量管理研究未考虑多类型能量转换与MG间电量交易的问题,同时,频繁交互模型参数导致通信时延较大。基于此,以一种包含风、光、电、气等多类型能源的MG为研究对象,构建了支持MG间电量交易和MG内能... 目前,基于联邦深度强化学习的微网(MG)能量管理研究未考虑多类型能量转换与MG间电量交易的问题,同时,频繁交互模型参数导致通信时延较大。基于此,以一种包含风、光、电、气等多类型能源的MG为研究对象,构建了支持MG间电量交易和MG内能量转换的能量管理模型,提出基于正余弦算法的联邦竞争深度Q网络学习算法,并基于该算法设计了计及能量交易与转换的多MG能量管理与优化策略。仿真结果表明,所提能量管理策略在保护数据隐私的前提下,能够得到更高奖励且最大化MG经济收益,同时降低了通信时延。 展开更多
关键词 微网(MG) 联邦学习 竞争深度q网络 正余弦算法 能量管理
下载PDF
上一页 1 2 46 下一页 到第
使用帮助 返回顶部