期刊文献+
共找到1,361篇文章
< 1 2 69 >
每页显示 20 50 100
Investigation of nano-talc as a filling material and a reinforcing agent in high density polyethylene (HDPE) 被引量:1
1
作者 CHEN Nanchun MA Lei ZHANG Tao 《Rare Metals》 SCIE EI CAS CSCD 2006年第z1期422-425,共4页
An experiment of producing high density polyethylene (HDPE) nano-composite filled with 4wt.% talc was presented. Acting as filler and a reinforcing agent in the HDPE, talc powder, sized at around 5 μm, was surface-tr... An experiment of producing high density polyethylene (HDPE) nano-composite filled with 4wt.% talc was presented. Acting as filler and a reinforcing agent in the HDPE, talc powder, sized at around 5 μm, was surface-treated with aluminum diethylene glycol dinitrate coupling agent before adding to the HDPE. Analyses of the reinforced HDPE nano-composite show significant improvement in its mechanical properties including, tensile strength (>26 MPa), break elongation (<1.1%), flexural strength (>22 MPa), and friction coefficients<0.11. The results demonstrate that, after surface-treated, talc can be used as a promising filling material and a reinforcing agent in making HDPE nano-composite. 展开更多
关键词 HDPE TALC filling material reinforcing agent NANO-COMPOSITE mechanical properties
下载PDF
SEM in-situ Fracture Observation and the Reinforcing Effect of Composite SiC_p/ZA22
2
作者 Jun WANG, Baode SUN and Yaohe ZHOU School of Materials Science and Engineering, Shanghai Jiaotong University, Shanghai 200030, China Lining ZHANG and Feng CHEN Department of Materials Science and Engineering, Southeast University, 《Journal of Materials Science & Technology》 SCIE EI CAS CSCD 2001年第6期649-652,共4页
The strengthening effect of a Zn alloy reinforced by SiC particulate was examined. Based on the results of SEM in-situ fracture observation and stress field analysis by finite element method, it is believed that the r... The strengthening effect of a Zn alloy reinforced by SiC particulate was examined. Based on the results of SEM in-situ fracture observation and stress field analysis by finite element method, it is believed that the reinforcing effect of this composite is due to the combination of strain and stress hardening in the matrix. 展开更多
关键词 SIC sem in-situ Fracture Observation and the reinforcing Effect of Composite SiC_p/ZA22
下载PDF
基于多Agent深度强化学习的无人机协作规划方法 被引量:1
3
作者 王娜 马利民 +1 位作者 姜云春 宗成国 《计算机应用与软件》 北大核心 2024年第9期83-89,96,共8页
人机协作控制是多无人机任务规划的重要方式。考虑多无人机任务环境协同解释和策略控制一致性需求,提出基于多Agent深度强化学习的无人机协作规划方法。依据任务知识和行为状态,构建基于任务分配Agent的任务规划器,生成人机交互的相互... 人机协作控制是多无人机任务规划的重要方式。考虑多无人机任务环境协同解释和策略控制一致性需求,提出基于多Agent深度强化学习的无人机协作规划方法。依据任务知识和行为状态,构建基于任务分配Agent的任务规划器,生成人机交互的相互依赖关系;设计一种深度学习强化方法,解决群体行为最优策略和协同控制方法,并利用混合主动行为选择机制评估学习策略。实验结果表明:作为人机交互实例,所提方法通过深度强化学习使群体全局联合动作表现较好,学习速度和稳定性均能优于确定性策略梯度方法。同时,在跟随、自主和混合主动3种模式比较下,可以较好地控制无人机飞行路径和任务,为无人机集群任务执行提供了智能决策依据。 展开更多
关键词 agent规划 深度强化学习 无人机协同规划 混合主动行为
下载PDF
竞争与合作视角下的多Agent强化学习研究进展
4
作者 田小禾 李伟 +3 位作者 许铮 刘天星 戚骁亚 甘中学 《计算机应用与软件》 北大核心 2024年第4期1-15,共15页
随着深度学习和强化学习研究取得长足的进展,多Agent强化学习已成为解决大规模复杂序贯决策问题的通用方法。为了推动该领域的发展,从竞争与合作的视角收集并总结近期相关的研究成果。该文介绍单Agent强化学习;分别介绍多Agent强化学习... 随着深度学习和强化学习研究取得长足的进展,多Agent强化学习已成为解决大规模复杂序贯决策问题的通用方法。为了推动该领域的发展,从竞争与合作的视角收集并总结近期相关的研究成果。该文介绍单Agent强化学习;分别介绍多Agent强化学习的基本理论框架——马尔可夫博弈以及扩展式博弈,并重点阐述了其在竞争、合作和混合三种场景下经典算法及其近期研究进展;讨论多Agent强化学习面临的核心挑战——环境的不稳定性,并通过一个例子对其解决思路进行总结与展望。 展开更多
关键词 深度学习 强化学习 agent强化学习 环境的不稳定性
下载PDF
Effect of Shrinkage Reducing Agent and Steel Fiber on the Fluidity and Cracking Performance of Ultra-High Performance Concrete
5
作者 Yong Wan Li Li +4 位作者 Jiaxin Zou Hucheng Xiao Mengdi Zhu Ying Su Jin Yang 《Fluid Dynamics & Materials Processing》 EI 2024年第9期1941-1956,共16页
Due to the low water-cement ratio of ultra-high-performance concrete(UHPC),fluidity and shrinkage cracking are key aspects determining the performance and durability of this type of concrete.In this study,the effects ... Due to the low water-cement ratio of ultra-high-performance concrete(UHPC),fluidity and shrinkage cracking are key aspects determining the performance and durability of this type of concrete.In this study,the effects of different types of cementitious materials,chemical shrinkage-reducing agents(SRA)and steel fiber(SF)were assessed.Compared with M2-UHPC and M3-UHPC,M1-UHPC was found to have better fluidity and shrinkage cracking performance.Moreover,different SRA incorporation methods,dosage and different SF types and aspect ratios were implemented.The incorporation of SRA and SF led to a decrease in the fluidity of UHPC.SRA internal content of 1%(NSRA-1%),SRA external content of 1%(WSRA-1%),STS-0.22 and STE-0.7 decreased the fluidity of UHPC by 3.3%,8.3%,9.2%and 25%,respectively.However,SRA and SF improved the UHPC shrinkage cracking performance.NSRA-1%and STE-0.7 reduced the shrinkage value of UHPC by 40%and 60%,respectively,and increased the crack resistance by 338%and 175%,respectively.In addition,the addition of SF was observed to make the microstructure of UHPC more compact,and the compressive strength and flexural strength of 28 d were increased by 26.9%and 19.9%,respectively. 展开更多
关键词 Ultra-high performance concrete chemical shrinkage reducing agent steel fiber shrinkage cracking repair and reinforcement
下载PDF
基于多Agent强化学习的电力通信网跨层保护方法
6
作者 陈毅龙 《自动化技术与应用》 2024年第10期112-115,共4页
针对当前方法存在数据传输成功率低、传输延迟时间长以及开销大等题,设计基于多Agent强化学习的电力通信网跨层保护方法。首先使用多Agent强化学习算法设定网络多路径协议,控制网络节点数据接收能力,然后构建网络跨层安全构架,设定相应... 针对当前方法存在数据传输成功率低、传输延迟时间长以及开销大等题,设计基于多Agent强化学习的电力通信网跨层保护方法。首先使用多Agent强化学习算法设定网络多路径协议,控制网络节点数据接收能力,然后构建网络跨层安全构架,设定相应网络模型作为网络跨层保护的基础,最后使用罚函数法对模型进行求解,保证函数解具有较高的可靠性,根据求解结果实现对网络跨层算法的优化,实现电力通信网跨层保护方法。实验结果可知,所提方法的收包率得到了明显提升,传输延迟时间缩短,开销低。 展开更多
关键词 agent强化学习 跨层保护 罚函数 数据包传输延迟
下载PDF
面向DAG任务的分布式智能计算卸载和服务缓存联合优化
7
作者 李云 南子煜 +2 位作者 姚枝秀 夏士超 鲜永菊 《中山大学学报(自然科学版)(中英文)》 CAS 北大核心 2025年第1期71-82,共12页
建立了一种有向无环图(DAG,directed acyclic graph)任务卸载和资源优化问题,旨在应用最大可容忍时延等约束实现系统能耗最小化。考虑到网络中计算请求高度动态、完整的系统状态信息难以获取等因素,最后使用多智能体深度确定性策略梯度(... 建立了一种有向无环图(DAG,directed acyclic graph)任务卸载和资源优化问题,旨在应用最大可容忍时延等约束实现系统能耗最小化。考虑到网络中计算请求高度动态、完整的系统状态信息难以获取等因素,最后使用多智能体深度确定性策略梯度(MADDPG,multi-agent deep deterministic policy gradient)算法来探寻最优的策略。相比于现有的任务卸载算法,MADDPG算法能够降低14.2%至40.8%的系统平均能耗,并且本地缓存命中率提高3.7%至4.1%。 展开更多
关键词 移动边缘计算 多智能体深度强化学习 计算卸载 资源分配 服务缓存
下载PDF
基于深度强化学习的游戏智能引导算法
8
作者 白天 吕璐瑶 +1 位作者 李储 何加亮 《吉林大学学报(理学版)》 北大核心 2025年第1期91-98,共8页
针对传统游戏智能体算法存在模型输入维度大及训练时间长的问题,提出一种结合状态信息转换与奖励函数塑形技术的新型深度强化学习游戏智能引导算法.首先,利用Unity引擎提供的接口直接读取游戏后台信息,以有效压缩状态空间的维度,减少输... 针对传统游戏智能体算法存在模型输入维度大及训练时间长的问题,提出一种结合状态信息转换与奖励函数塑形技术的新型深度强化学习游戏智能引导算法.首先,利用Unity引擎提供的接口直接读取游戏后台信息,以有效压缩状态空间的维度,减少输入数据量;其次,通过精细化设计奖励机制,加速模型的收敛过程;最后,从主观定性和客观定量两方面对该算法模型与现有方法进行对比实验,实验结果表明,该算法不仅显著提高了模型的训练效率,还大幅度提高了智能体的性能. 展开更多
关键词 深度强化学习 游戏智能体 奖励函数塑形 近端策略优化算法
下载PDF
多Agent系统中强化学习的研究现状和发展趋势 被引量:12
9
作者 赵志宏 高阳 +1 位作者 骆斌 陈世福 《计算机科学》 CSCD 北大核心 2004年第3期23-27,共5页
本文对有关强化学习及其在多Agent系统中的应用等方面的研究现状、关键技术、问题和发展趋势进行了综述和讨论,试图给出强化学习目前研究的重点和发展方向。主要内容包括:(1)强化学习的框架结构;(2)几个有代表性的强化学习方法;(3)多Ag... 本文对有关强化学习及其在多Agent系统中的应用等方面的研究现状、关键技术、问题和发展趋势进行了综述和讨论,试图给出强化学习目前研究的重点和发展方向。主要内容包括:(1)强化学习的框架结构;(2)几个有代表性的强化学习方法;(3)多Agent系统中强化学习的应用和问题。最后讨论了多Agent系统中应用强化学习所面临的挑战。 展开更多
关键词 人工智能 agent系统 元对策理论 强化学习算法 POMDP模型
下载PDF
AODE中基于强化学习的Agent协商模型 被引量:14
10
作者 王立春 高阳 陈世福 《南京大学学报(自然科学版)》 CAS CSCD 北大核心 2001年第2期135-141,共7页
AODE是我们研制的一个面向Agent的智能系统开发环境 .AODE中基于强化学习的Agent协商模型采用Markov决策过程和连续决策过程分别描述系统状态变化和特定系统状态的Agent协商过程 ,并将强化学习技术应用于Agent协商过程 .该协商模型能够... AODE是我们研制的一个面向Agent的智能系统开发环境 .AODE中基于强化学习的Agent协商模型采用Markov决策过程和连续决策过程分别描述系统状态变化和特定系统状态的Agent协商过程 ,并将强化学习技术应用于Agent协商过程 .该协商模型能够描述动态环境下的多Agent协商 ,模型中所有Agent都采用元对策Q 学习算法时 ,系统能获得动态协商环境下的最优协商解 . 展开更多
关键词 多Agnet系统 强化学习 agent协商模型 AODE 智能系统开发环境 协商策略
下载PDF
基于强化学习的指挥控制Agent适应性仿真研究 被引量:8
11
作者 李志强 胡晓峰 +1 位作者 张斌 董忠林 《系统仿真学报》 EI CAS CSCD 北大核心 2005年第11期2801-2804,共4页
应用人工智能中的学习技术来赋予战争模拟系统中的智能Agent适应能力,是基于CAS理论的战争复杂性研究的基础内容之一。面对战争系统中复杂动态的环境,传统的监督学习方法不能很好满足智能Agent实时学习的要求。而强化学习却可以很好的... 应用人工智能中的学习技术来赋予战争模拟系统中的智能Agent适应能力,是基于CAS理论的战争复杂性研究的基础内容之一。面对战争系统中复杂动态的环境,传统的监督学习方法不能很好满足智能Agent实时学习的要求。而强化学习却可以很好的适应这种动态未知的环境。文章引入强化学习技术对战争系统中指挥控制Agent的适应性进行建模仿真研究。实验结果表明强化学习技术能很好的满足指挥控制Agent无师在线实时学习的要求,从而为战争模拟系统中的智能Agent的适应性机制提供良好的建模手段。 展开更多
关键词 适应性 强化学习 指挥控制 agent
下载PDF
一种基于Agent团队的强化学习模型与应用研究 被引量:31
12
作者 蔡庆生 张波 《计算机研究与发展》 EI CSCD 北大核心 2000年第9期1087-1093,共7页
多 Agent学习是近年来受到较多关注的研究方向 .以单 Agent强化学习 Q - learning算法为基础 ,提出了一种基于 Agent团队的强化学习模型 ,这个模型的最大特点是引入主导 Agent作为团队学习的主角 ,并通过主导Agent的角色变换实现整个团... 多 Agent学习是近年来受到较多关注的研究方向 .以单 Agent强化学习 Q - learning算法为基础 ,提出了一种基于 Agent团队的强化学习模型 ,这个模型的最大特点是引入主导 Agent作为团队学习的主角 ,并通过主导Agent的角色变换实现整个团队的学习 .结合仿真机器人足球领域 ,设计了具体的应用模型 ,在几个方面对 Q -learning进行了扩充 ,并进行了实验 . 展开更多
关键词 agent团队 机器人足球 强化学习模型 人工智能
下载PDF
基于Agent的递阶强化学习模型与体系结构 被引量:4
13
作者 王文玺 肖世德 +2 位作者 孟祥印 陈应松 张卫华 《机械工程学报》 EI CAS CSCD 北大核心 2010年第2期76-82,共7页
通过引入频率最大Q值启发式学习算法,对一种递阶强化学习方法进行改进,解决在庞大状态空间和动态变化环境中对Agent进行最优行为策略学习的问题。引入属性维护算子以及承诺和规划意识属性,对经典信念、愿望、意图模型进行扩展,给出意识... 通过引入频率最大Q值启发式学习算法,对一种递阶强化学习方法进行改进,解决在庞大状态空间和动态变化环境中对Agent进行最优行为策略学习的问题。引入属性维护算子以及承诺和规划意识属性,对经典信念、愿望、意图模型进行扩展,给出意识属性的理性维护过程,增强Agent的自适应性并使Agent具有在动态环境中进行在线学习的能力。根据意识模型提出一种具有主动性、适应性、反应性、社会性的Agent体系结构,并根据该体系结构开发出一种路径规划Agent。通过对行驶环境的组态设定,模拟车辆复杂的行驶状态,并通过对行驶状态的不断学习,最终获得最优路径,证明体系结构的可行性和有效性。 展开更多
关键词 agent 强化学习 体系结构 意识模型
下载PDF
一种基于多Agent强化学习的多星协同任务规划算法 被引量:21
14
作者 王冲 景宁 +2 位作者 李军 王钧 陈浩 《国防科技大学学报》 EI CAS CSCD 北大核心 2011年第1期53-58,共6页
在分析任务特点和卫星约束的基础上给出了多星协同任务规划问题的数学模型。引入约束惩罚算子和多星联合惩罚算子对卫星Agent原始的效用值增益函数进行改进,在此基础上提出了一种多卫星Agent强化学习算法以求解多星协同任务分配策略,设... 在分析任务特点和卫星约束的基础上给出了多星协同任务规划问题的数学模型。引入约束惩罚算子和多星联合惩罚算子对卫星Agent原始的效用值增益函数进行改进,在此基础上提出了一种多卫星Agent强化学习算法以求解多星协同任务分配策略,设计了基于黑板结构的多星交互方式以降低学习交互过程中的通信代价。通过仿真实验及分析证明该方法能够有效解决多星协同任务规划问题。 展开更多
关键词 卫星任务规划 协同规划 多智能体强化学习 黑板结构
下载PDF
基于Markov对策的多Agent强化学习模型及算法研究 被引量:30
15
作者 高阳 周志华 +1 位作者 何佳洲 陈世福 《计算机研究与发展》 EI CSCD 北大核心 2000年第3期257-263,共7页
在MDP中,单Agent可以通过强化学习来寻找问题的最优解.但在多Agent系统中,MDP模型不再适用.同样极小极大Q算法只能解决采用零和对策模型的MAS学习问题.文中采用非零和Markov对策作为多Agent系统学... 在MDP中,单Agent可以通过强化学习来寻找问题的最优解.但在多Agent系统中,MDP模型不再适用.同样极小极大Q算法只能解决采用零和对策模型的MAS学习问题.文中采用非零和Markov对策作为多Agent系统学习框架,并提出元对策强化学习的学习模型和元对策Q算法.理论证明元对策Q算法收敛在非零和Markov对策的元对策最优解. 展开更多
关键词 元对策 强化学习 agent系统 人工智能
下载PDF
基于强化学习的多Agent协作研究 被引量:5
16
作者 郑淑丽 韩江洪 +1 位作者 骆祥峰 蒋建文 《小型微型计算机系统》 CSCD 北大核心 2003年第11期1986-1988,共3页
强化学习为多 Agent之间的协作提供了鲁棒的学习方法 .本文首先介绍了强化学习的原理和组成要素 ,其次描述了多 Agent马尔可夫决策过程 MMDP,并给出了 Agent强化学习模型 .在此基础上 ,对多 Agent协作过程中存在的两种强化学习方式 :IL... 强化学习为多 Agent之间的协作提供了鲁棒的学习方法 .本文首先介绍了强化学习的原理和组成要素 ,其次描述了多 Agent马尔可夫决策过程 MMDP,并给出了 Agent强化学习模型 .在此基础上 ,对多 Agent协作过程中存在的两种强化学习方式 :IL(独立学习 )和 JAL(联合动作学习 )进行了比较 .最后分析了在有多个最优策略存在的情况下 ,协作多 展开更多
关键词 agent系统 强化学习 MMDP 协调机制
下载PDF
随机博弈框架下的多agent强化学习方法综述 被引量:13
17
作者 宋梅萍 顾国昌 张国印 《控制与决策》 EI CSCD 北大核心 2005年第10期1081-1090,共10页
多agent学习是在随机博弈的框架下,研究多个智能体间通过自学习掌握交互技巧的问题.单agent强化学习方法研究的成功,对策论本身牢固的数学基础以及在复杂任务环境中广阔的应用前景,使得多agent强化学习成为目前机器学习研究领域的一个... 多agent学习是在随机博弈的框架下,研究多个智能体间通过自学习掌握交互技巧的问题.单agent强化学习方法研究的成功,对策论本身牢固的数学基础以及在复杂任务环境中广阔的应用前景,使得多agent强化学习成为目前机器学习研究领域的一个重要课题.首先介绍了多agent系统随机博弈中基本概念的形式定义;然后介绍了随机博弈和重复博弈中学习算法的研究以及其他相关工作;最后结合近年来的发展,综述了多agent学习在电子商务、机器人以及军事等方面的应用研究,并介绍了仍存在的问题和未来的研究方向. 展开更多
关键词 agent系统 随机博弈 强化学习
下载PDF
基于Agent的用户偏好决策模型及其应用 被引量:6
18
作者 张成 魏法杰 贾素玲 《计算机工程与应用》 CSCD 北大核心 2007年第25期11-14,共4页
智能体及其组成的智能体系统是人们解决用传统方法难以解决的复杂问题的一个新途径,以复杂适应系统、智能体系统等理论为指导,吸取了智能体强化学习的基本原理,提出了一种基于智能体的用户偏好决策模型,并将其成功应用在互联网搜索中,... 智能体及其组成的智能体系统是人们解决用传统方法难以解决的复杂问题的一个新途径,以复杂适应系统、智能体系统等理论为指导,吸取了智能体强化学习的基本原理,提出了一种基于智能体的用户偏好决策模型,并将其成功应用在互联网搜索中,不仅提高了搜索的质量,同时具有一定的创新性。 展开更多
关键词 智能体 强化学习 偏好决策
下载PDF
多Agent动态调度方法在染色车间调度中的应用 被引量:12
19
作者 徐新黎 郝平 王万良 《计算机集成制造系统》 EI CSCD 北大核心 2010年第3期611-620,共10页
为解决复杂、繁琐的染色车间调度问题,根据印染生产过程的工艺特点和约束条件,建立了染色车间作业调度问题模型。为了提高调度系统对生产环境经常发生变化的自适应能力和全局优化能力,提出了一种基于蚂蚁智能与强化学习相结合的协商策... 为解决复杂、繁琐的染色车间调度问题,根据印染生产过程的工艺特点和约束条件,建立了染色车间作业调度问题模型。为了提高调度系统对生产环境经常发生变化的自适应能力和全局优化能力,提出了一种基于蚂蚁智能与强化学习相结合的协商策略的多Agent动态调度方法。在该方法中,智能Agent能根据行为的历史反馈和立即反馈来选择相应的行为,也能根据算法的历史奖励来选择相应的智能调度算法,从而把一小部分工序任务的实时局部优化和大部分工序任务的全局优化结合起来。调度实例的求解结果验证了该方法的有效性。 展开更多
关键词 调度 agent系统 染色车间 蚂蚁智能 强化学习
下载PDF
基于Agent的股票交易模拟及应用 被引量:12
20
作者 刘晓光 刘晓峰 《计算机工程与应用》 CSCD 北大核心 2004年第21期220-222,共3页
股票市场是市场经济的重要组成部分。但是现有的基于演绎推理的理论分析方法在处理股市这类复杂性系统时遇到了很多困难,因此基于归纳推理的实验经济学方法成为一种可行的选择。论文基于多Agent系统,采用再励学习算法模拟交易者行为特征... 股票市场是市场经济的重要组成部分。但是现有的基于演绎推理的理论分析方法在处理股市这类复杂性系统时遇到了很多困难,因此基于归纳推理的实验经济学方法成为一种可行的选择。论文基于多Agent系统,采用再励学习算法模拟交易者行为特征,实现了一个股票市场的模拟系统,并且应用这一系统研究了涨跌停板交易机制对于股市的影响。 展开更多
关键词 模拟 agent 股市 再励学习
下载PDF
上一页 1 2 69 下一页 到第
使用帮助 返回顶部