期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
多组滞后中立型区间系数非线性离散控制系统的鲁棒镇定
1
作者 张鸿亮 《仲恺农业技术学院学报》 1998年第4期42-48,共7页
研究了一类多组滞后中立型区间系数非线性离散核制系统的鲁律镇定.应用频率等价法及相应的比较原理,把滞后区间系数非线性控制系统的鲁棒镇定转化为无滞后确定性定常离散系统的镇定问题.
关键词 鲁棒镇定 频率等价法 多组滞后中立型区间系数 非线性离散控制系统
下载PDF
非线性离散控制系统的可观测性
2
作者 谭学利 田华 《吉林大学学报(理学版)》 CAS CSCD 北大核心 2015年第1期68-70,共3页
用Brouwer不动点定理研究非线性自治离散控制系统和非自治离散控制系统的可观测性.结果表明:当非线性项f关于x连续、有界,且r(M)=n时,自治离散控制系统是局部可观测的;若存在正整数N使得矩阵珨M列满秩,且对每个i∈[h,h+N-2](i为正整数),... 用Brouwer不动点定理研究非线性自治离散控制系统和非自治离散控制系统的可观测性.结果表明:当非线性项f关于x连续、有界,且r(M)=n时,自治离散控制系统是局部可观测的;若存在正整数N使得矩阵珨M列满秩,且对每个i∈[h,h+N-2](i为正整数),f(i,x(i))关于x(i)连续且有界,则非自治离散控制系统在第h阶段是局部可观测的. 展开更多
关键词 非线性离散控制系统 可观测性 BROUWER不动点定理
下载PDF
基于信息融合最优估计的非线性离散系统预测控制 被引量:12
3
作者 甄子洋 王志胜 王道波 《自动化学报》 EI CSCD 北大核心 2008年第3期331-336,共6页
针对非线性离散系统的二次型最优预测控制问题,提出了一种基于信息融合最优估计的迭代预测控制算法.通过融合二次型性能指标函数中包含的未来参考轨迹和控制能量的软约束信息,以及系统状态方程和输出方程的硬约束信息,获得协状态序列和... 针对非线性离散系统的二次型最优预测控制问题,提出了一种基于信息融合最优估计的迭代预测控制算法.通过融合二次型性能指标函数中包含的未来参考轨迹和控制能量的软约束信息,以及系统状态方程和输出方程的硬约束信息,获得协状态序列和控制序列的最优估计.通过二自由度机器人操作手的转移控制仿真,表明了该控制算法具有良好的稳定性和鲁棒性. 展开更多
关键词 信息融合 预测控制 非线性离散系统 最优估计
下载PDF
A novel policy iteration based deterministic Q-learning for discrete-time nonlinear systems 被引量:8
4
作者 WEI QingLai LIU DeRong 《Science China Chemistry》 SCIE EI CAS CSCD 2015年第12期143-157,共15页
In this paper, a novel iterative Q-learning algorithm, called "policy iteration based deterministic Qlearning algorithm", is developed to solve the optimal control problems for discrete-time deterministic no... In this paper, a novel iterative Q-learning algorithm, called "policy iteration based deterministic Qlearning algorithm", is developed to solve the optimal control problems for discrete-time deterministic nonlinear systems. The idea is to use an iterative adaptive dynamic programming(ADP) technique to construct the iterative control law which optimizes the iterative Q function. When the optimal Q function is obtained, the optimal control law can be achieved by directly minimizing the optimal Q function, where the mathematical model of the system is not necessary. Convergence property is analyzed to show that the iterative Q function is monotonically non-increasing and converges to the solution of the optimality equation. It is also proven that any of the iterative control laws is a stable control law. Neural networks are employed to implement the policy iteration based deterministic Q-learning algorithm, by approximating the iterative Q function and the iterative control law, respectively. Finally, two simulation examples are presented to illustrate the performance of the developed algorithm. 展开更多
关键词 adaptive critic designs adaptive dynamic programming approximate dynamic programming Q-LEARNING policy iteration neural networks nonlinear systems optimal control
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部