期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
4
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于模拟退火与强化学习机制的任务分析方法
被引量:
3
1
作者
彭鹏菲
龚雪
+1 位作者
郑雅莲
姜俊
《兵器装备工程学报》
CAS
CSCD
北大核心
2022年第9期315-322,共8页
针对常规任务分析中任务间信息交互因素复杂且评估指标单一,提出了基于模拟退火选择策略的强化学习改进算法,实现了一种面向复杂因素的强化学习改进的任务序列重构及任务图生成方法;以模拟退火思想为基础,将Q学习机制引入退火转换因子,...
针对常规任务分析中任务间信息交互因素复杂且评估指标单一,提出了基于模拟退火选择策略的强化学习改进算法,实现了一种面向复杂因素的强化学习改进的任务序列重构及任务图生成方法;以模拟退火思想为基础,将Q学习机制引入退火转换因子,实现任务序列重组;依据任务间信息交互模型和退火因子元素,构建智能体(Agent)运行环境,计算收敛动作状态表(Q-table),确定任务最优状态,进行任务状态转换,通过迭代学习,最终生成任务执行序列图;通过仿真实验,研究结果表明:该方法能有效解决任务分析中多方条件限制的任务序列重组问题,且对动态情景有更强的适应性,其任务序列图执行效率高,能完善多维度条件限制情况的应对机制。
展开更多
关键词
多因素分析
任务序列图
模拟退火
序列重组
强化学习机制
下载PDF
职称材料
量子侧抑制强化竞争算法研究
2
作者
侯旋
《电子设计工程》
2015年第6期37-40,共4页
深入研究了量子竞争网络的原理,基于量子竞争算法,通过引入神经元侧抑制功能与强化学习机制,建立了量子侧抑制强化竞争网络模型,提出了量子侧抑制强化竞争算法。量子侧抑制强化竞争网络竞争层神经元所具有的侧抑制功能提高了网络精度,...
深入研究了量子竞争网络的原理,基于量子竞争算法,通过引入神经元侧抑制功能与强化学习机制,建立了量子侧抑制强化竞争网络模型,提出了量子侧抑制强化竞争算法。量子侧抑制强化竞争网络竞争层神经元所具有的侧抑制功能提高了网络精度,其强化学习机制加速了网络学习。通过对具有四类样本的数据集进行模式识别实验,量子侧抑制强化竞争算法的平均正确率为98.89%,量子竞争算法的平均正确率为95.56%。结果表明量子侧抑制强化竞争算法相对量子竞争算法具有更高的模式识别能力。
展开更多
关键词
量子神经网络
侧抑制联结
强化学习机制
量子竞争
模式识别
下载PDF
职称材料
基于Q—学习的超启发式模型及算法求解多模式资源约束项目调度问题
被引量:
3
3
作者
崔建双
吕玥
徐子涵
《计算机集成制造系统》
EI
CSCD
北大核心
2022年第5期1472-1481,共10页
为了更好地解决传统的元启发式算法机制单一和面向问题定制不足等问题,提高算法的整体通用性,本文提出一种基于Q—学习的超启发式模型,并基于该模型设计实现了一种超启发式算法,求解多模式资源约束项目调度问题(MRCPSP)。该模型架构分...
为了更好地解决传统的元启发式算法机制单一和面向问题定制不足等问题,提高算法的整体通用性,本文提出一种基于Q—学习的超启发式模型,并基于该模型设计实现了一种超启发式算法,求解多模式资源约束项目调度问题(MRCPSP)。该模型架构分为高低两层,低层由具有多种异构机制和不同参数的元启发式算子组成,高层则依据Q—学习策略自动选择低层算子。模型将多种优秀的元启发式算法与反馈—学习强化机制有机整合,具备灵活的可扩展性。为检验算法效果,从MRCPSP标杆算例库中选取了上千个规模不等的算例,设计了等价比较实验环节,并与最新公开文献提供的结果进行了比较。结果表明,基于Q—学习的超启发式算法在目标值、通用性、鲁棒性等多项性能指标上均表现优异,可以借鉴应用到其他各种组合优化问题。值得一提的是,针对J30算例的计算结果有多达41个算例获得了比当前公开文献报告的已知最优解更好的结果。
展开更多
关键词
超启发式模型
强化
学习
Q—
学习
多模式资源约束项目调度问题
元启发式算法
反馈—
学习
强化
机制
下载PDF
职称材料
交通流元胞自动机模型中慢化行为
4
作者
丁建勋
黄海军
唐铁桥
《吉林大学学报(工学版)》
EI
CAS
CSCD
北大核心
2009年第S2期66-70,共5页
根据司机加速和减速过程的不同特性,提出了一个改进的交通流元胞自动机模型。数值实验表明,该模型可以满意地刻画司机学习效应对行车过程的实时影响,说明引入强化学习机制可以更好地再现多种复杂交通现象。
关键词
交通运输工程
交通流
元胞自动机模型
强化学习机制
下载PDF
职称材料
题名
基于模拟退火与强化学习机制的任务分析方法
被引量:
3
1
作者
彭鹏菲
龚雪
郑雅莲
姜俊
机构
海军工程大学电子工程学院
武汉大学水资源与水电工程科学国家重点实验室
海军工程大学作战运筹与规划系
出处
《兵器装备工程学报》
CAS
CSCD
北大核心
2022年第9期315-322,共8页
基金
海军工程大学科研发展基金自主立项项目(425317S107)。
文摘
针对常规任务分析中任务间信息交互因素复杂且评估指标单一,提出了基于模拟退火选择策略的强化学习改进算法,实现了一种面向复杂因素的强化学习改进的任务序列重构及任务图生成方法;以模拟退火思想为基础,将Q学习机制引入退火转换因子,实现任务序列重组;依据任务间信息交互模型和退火因子元素,构建智能体(Agent)运行环境,计算收敛动作状态表(Q-table),确定任务最优状态,进行任务状态转换,通过迭代学习,最终生成任务执行序列图;通过仿真实验,研究结果表明:该方法能有效解决任务分析中多方条件限制的任务序列重组问题,且对动态情景有更强的适应性,其任务序列图执行效率高,能完善多维度条件限制情况的应对机制。
关键词
多因素分析
任务序列图
模拟退火
序列重组
强化学习机制
Keywords
multifactor analysis
task sequence diagram
simulated annealing
sequence recombination
Q-learning learning mechanism
分类号
E917 [军事]
E211 [军事—军队指挥学]
下载PDF
职称材料
题名
量子侧抑制强化竞争算法研究
2
作者
侯旋
机构
空军工程大学航空航天工程学院
出处
《电子设计工程》
2015年第6期37-40,共4页
文摘
深入研究了量子竞争网络的原理,基于量子竞争算法,通过引入神经元侧抑制功能与强化学习机制,建立了量子侧抑制强化竞争网络模型,提出了量子侧抑制强化竞争算法。量子侧抑制强化竞争网络竞争层神经元所具有的侧抑制功能提高了网络精度,其强化学习机制加速了网络学习。通过对具有四类样本的数据集进行模式识别实验,量子侧抑制强化竞争算法的平均正确率为98.89%,量子竞争算法的平均正确率为95.56%。结果表明量子侧抑制强化竞争算法相对量子竞争算法具有更高的模式识别能力。
关键词
量子神经网络
侧抑制联结
强化学习机制
量子竞争
模式识别
Keywords
quantum neural network
lateral inhibition connection
reinforcement learning mechanism
quantum competitive
pattern recognition
分类号
TN919.5 [电子电信—通信与信息系统]
下载PDF
职称材料
题名
基于Q—学习的超启发式模型及算法求解多模式资源约束项目调度问题
被引量:
3
3
作者
崔建双
吕玥
徐子涵
机构
北京科技大学经济管理学院
出处
《计算机集成制造系统》
EI
CSCD
北大核心
2022年第5期1472-1481,共10页
基金
国家自然科学基金资助项目(71871017)
北京市教委社科基金资助项目(SM201910037004)。
文摘
为了更好地解决传统的元启发式算法机制单一和面向问题定制不足等问题,提高算法的整体通用性,本文提出一种基于Q—学习的超启发式模型,并基于该模型设计实现了一种超启发式算法,求解多模式资源约束项目调度问题(MRCPSP)。该模型架构分为高低两层,低层由具有多种异构机制和不同参数的元启发式算子组成,高层则依据Q—学习策略自动选择低层算子。模型将多种优秀的元启发式算法与反馈—学习强化机制有机整合,具备灵活的可扩展性。为检验算法效果,从MRCPSP标杆算例库中选取了上千个规模不等的算例,设计了等价比较实验环节,并与最新公开文献提供的结果进行了比较。结果表明,基于Q—学习的超启发式算法在目标值、通用性、鲁棒性等多项性能指标上均表现优异,可以借鉴应用到其他各种组合优化问题。值得一提的是,针对J30算例的计算结果有多达41个算例获得了比当前公开文献报告的已知最优解更好的结果。
关键词
超启发式模型
强化
学习
Q—
学习
多模式资源约束项目调度问题
元启发式算法
反馈—
学习
强化
机制
Keywords
hyper-heuristic
reinforcement learning
Q-learning
multi-mode resource-constrained project scheduling problem
meta-heuristic implementation methods
feedback-learning reinforcement mechanisms
分类号
TP301 [自动化与计算机技术—计算机系统结构]
下载PDF
职称材料
题名
交通流元胞自动机模型中慢化行为
4
作者
丁建勋
黄海军
唐铁桥
机构
北京航空航天大学经济管理学院
北京航空航天大学交通科学与工程学院
出处
《吉林大学学报(工学版)》
EI
CAS
CSCD
北大核心
2009年第S2期66-70,共5页
基金
"973"国家基础研究发展规划项目(2006CB705503)
国家自然科学基金项目(70521001)
文摘
根据司机加速和减速过程的不同特性,提出了一个改进的交通流元胞自动机模型。数值实验表明,该模型可以满意地刻画司机学习效应对行车过程的实时影响,说明引入强化学习机制可以更好地再现多种复杂交通现象。
关键词
交通运输工程
交通流
元胞自动机模型
强化学习机制
Keywords
engineering of communication and transportation
traffic flow
cellular automaton model
reinforcement learning effect
分类号
U491.112 [交通运输工程—交通运输规划与管理]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于模拟退火与强化学习机制的任务分析方法
彭鹏菲
龚雪
郑雅莲
姜俊
《兵器装备工程学报》
CAS
CSCD
北大核心
2022
3
下载PDF
职称材料
2
量子侧抑制强化竞争算法研究
侯旋
《电子设计工程》
2015
0
下载PDF
职称材料
3
基于Q—学习的超启发式模型及算法求解多模式资源约束项目调度问题
崔建双
吕玥
徐子涵
《计算机集成制造系统》
EI
CSCD
北大核心
2022
3
下载PDF
职称材料
4
交通流元胞自动机模型中慢化行为
丁建勋
黄海军
唐铁桥
《吉林大学学报(工学版)》
EI
CAS
CSCD
北大核心
2009
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部