期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
基于S7-1200 PLC和专家函数的群控电梯系统设计 被引量:2
1
作者 位星剑 袁毓聪 +3 位作者 汪龙 林淙蔚 胡祁敏 杨超 《科技资讯》 2019年第16期34-34,36,共2页
当今世界,电梯已然成为楼宇建筑必备的交通工具,随着电梯控制技术的发展和人们对乘梯质量要求的提高,如何能够全面提高电梯的服务质量一直是群控电梯领域的研究热点。该文以西门子S7-1200PLC为主控制器,设计了一款基于专家函数的S7-120... 当今世界,电梯已然成为楼宇建筑必备的交通工具,随着电梯控制技术的发展和人们对乘梯质量要求的提高,如何能够全面提高电梯的服务质量一直是群控电梯领域的研究热点。该文以西门子S7-1200PLC为主控制器,设计了一款基于专家函数的S7-1200群控电梯控制系统,针对群控电梯的3个评价指标——乘客候梯时间、乘客乘梯时间、能源消耗量对系统进行评价,结果验证了该系统设计具有一定的实际应用价值。 展开更多
关键词 群控电梯 S7-1200 专家函数
下载PDF
论嵌入式系统设计方法 被引量:1
2
作者 刘和平 张国利 《飞行器测控学报》 2002年第1期24-27,共4页
根据嵌入式系统设计方法的演化和发展,结合设备研制中嵌入式系统的设计方法现状,给出了嵌入式系统软硬件设计的流行方法,以提升设备研制的效率、可靠性和设计水平.
关键词 嵌入式系统 知识产权核 C语言 实时操作系统 专家函数
下载PDF
中国单片机公共实验室提供支持的嵌入式微控制器及其开发平台
3
作者 博洋 《中国集成电路》 2002年第9期58-61,共4页
本文通过对新型16位嵌入式微控制器(MCU)及其开发平台的介绍,说明了面向二十一世纪的MCU的特点及其发展趋势。本文首先围绕Intel的MCS251/296、Philips的80C51XA、Infineon的SABC166/167以及Motorola的68HC16/300系列MCU,以它们共有的... 本文通过对新型16位嵌入式微控制器(MCU)及其开发平台的介绍,说明了面向二十一世纪的MCU的特点及其发展趋势。本文首先围绕Intel的MCS251/296、Philips的80C51XA、Infineon的SABC166/167以及Motorola的68HC16/300系列MCU,以它们共有的特征为基础,说明了16位微控制器的发展方向。然后以CMX的实时多任务操作系统(RTOS)为例,简要介绍了RTOS的概念和功用,以Tasking的C语言编译器为例,分析了目前支持16位嵌入式系统的C语言编译器和C开发平台的现状和特点。本文最后分析了目前国际市场上16位MCU仿真器的现状,提出了选择根据。此外还介绍了最新的嵌入式系统通信协议专家库函数、远程仿真等本领域的最新技术。 展开更多
关键词 开发平台 仿真器 实时多任务操作系统 嵌入式微控制器 单片机 嵌入式系统 编译器 专家函数 通信协议 实时操作系统
下载PDF
Multiagent reinforcement learning through merging individually learned value functions
4
作者 张化祥 黄上腾 《Journal of Harbin Institute of Technology(New Series)》 EI CAS 2005年第3期346-350,共5页
In cooperative multiagent systems, to learn the optimal policies of multiagents is very difficult. As the numbers of states and actions increase exponentially with the number of agents, their action policies become mo... In cooperative multiagent systems, to learn the optimal policies of multiagents is very difficult. As the numbers of states and actions increase exponentially with the number of agents, their action policies become more intractable. By learning these value functions, an agent can learn its optimal action policies for a task. If a task can be decomposed into several subtasks and the agents have learned the optimal value functions for each subtask, this knowledge can be helpful for the agents in learning the optimal action policies for the whole task when they are acting simultaneously. When merging the agents’ independently learned optimal value functions, a novel multiagent online reinforcement learning algorithm LU-Q is proposed. By applying a transformation to the individually learned value functions, the constraints on the optimal value functions of each subtask are loosened. In each learning iteration process in algorithm LU-Q, the agents’ joint action set in a state is processed. Some actions of that state are pruned from the available action set according to the defined multiagent value function in LU-Q. As the items of the available action set of each state are reduced gradually in the iteration process of LU-Q, the convergence of the value functions is accelerated. LU-Q’s effectiveness, soundness and convergence are analyzed, and the experimental results show that the learning performance of LU-Q is better than the performance of standard Q learning. 展开更多
关键词 reinforcement learning MULTIAGENT value function
下载PDF
您在我们的心中永生 被引量:2
5
作者 王昆扬 张英伯 《数学通报》 北大核心 2006年第4期2-3,共2页
关键词 导师 孙永生 逝世 函数专家
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部