期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
温室兰花生长状态监测移动视觉机器人的研究 被引量:5
1
作者 王建平 杨宗晔 《中国农机化学报》 2016年第10期185-194,253,共11页
从智能控制与机器视觉识别方法和有限状态机相结合的思想出发,探索一种兰花生长状态监测移动视觉机器人,用于兰花温室生长过程中长势状况的监测。给出移动视觉机器人的系统结构模型,建立移动视觉机器人有限状态机的任务协调级和控制执... 从智能控制与机器视觉识别方法和有限状态机相结合的思想出发,探索一种兰花生长状态监测移动视觉机器人,用于兰花温室生长过程中长势状况的监测。给出移动视觉机器人的系统结构模型,建立移动视觉机器人有限状态机的任务协调级和控制执行级。移动视觉机器人通过给出的苗盘编号标识的图像识别、编号苗盘的定位算法、兰花生长状态的株高与叶面的图像采集、兰花生长状态的特征提取算法以及兰花生长状态的视觉评判算法,完成对兰花生长状态的自主监测,并给出移动视觉机器人在温室兰花培育中的实际应用情况。 展开更多
关键词 兰花生长状态监测 移动视觉机器人 机器视觉 视觉定位 视觉评判
下载PDF
缺乏位置信息的视觉移动机器人leader-following编队控制
2
作者 沈尧高 于双和 黄进 《计算机应用与软件》 北大核心 2024年第2期73-79,共7页
针对视觉移动机器人编队在缺乏位置信息情况下的控制问题,提出一种基于视觉的leader-following编队反馈控制方法。该方法利用leader标志物特征点在follower摄像机像平面上的坐标信息设计了观测器,对leader与follower间的相对位置进行估... 针对视觉移动机器人编队在缺乏位置信息情况下的控制问题,提出一种基于视觉的leader-following编队反馈控制方法。该方法利用leader标志物特征点在follower摄像机像平面上的坐标信息设计了观测器,对leader与follower间的相对位置进行估计,基于相对位置估计量与它们速度的关系,设计出leader-following编队反馈控制器,通过Lyapunov理论证明了闭环系统的稳定性。仿真结果表明,该控制方法能有效解决缺乏位置信息情况下视觉移动机器人编队的控制问题。 展开更多
关键词 视觉移动机器人 leader-following编队 缺乏位置信息 相对位置 反馈控制
下载PDF
视觉伺服移动机器人中的图像处理研究 被引量:12
3
作者 庄健 王孙安 《西安交通大学学报》 EI CAS CSCD 北大核心 2002年第3期287-290,共4页
从机器人彩色视觉的形成机理入手 ,分析了影响视觉的主要因素 ,其中包括光照条件与成像元件等 ,设计了一种基于知识融合的视觉图像处理方法 ,将其应用于机器人的彩色视觉后 ,增加了机器人视觉系统的鲁棒性 .研究表明 ,该方法可以在环境... 从机器人彩色视觉的形成机理入手 ,分析了影响视觉的主要因素 ,其中包括光照条件与成像元件等 ,设计了一种基于知识融合的视觉图像处理方法 ,将其应用于机器人的彩色视觉后 ,增加了机器人视觉系统的鲁棒性 .研究表明 ,该方法可以在环境光场有变化或光场分布不均匀的情况下快速、准确地计算出移动机器人的位置与姿态 ,定位误差不超过 4× 4的像素点范围 ,角度误差在±2° ,因此满足了视觉伺服系统性能指标的要求 . 展开更多
关键词 视觉伺服移动机器人 图像处理 彩色视觉 知识融合
下载PDF
模糊先验引导的高效强化学习移动机器人导航 被引量:1
4
作者 刘浚嘉 付庄 +2 位作者 谢荣理 张俊 费健 《机械与电子》 2021年第8期72-76,共5页
针对移动机器人仅使用RGB D相机在室内场景下执行坐标点主动视觉导航任务,提出了一种基于模糊先验引导的高效强化学习控制算法,设计了一种先验与强化学习的融合控制方式。结果表明,所提出的融合控制方法能够在确保较好的导航准确率基础... 针对移动机器人仅使用RGB D相机在室内场景下执行坐标点主动视觉导航任务,提出了一种基于模糊先验引导的高效强化学习控制算法,设计了一种先验与强化学习的融合控制方式。结果表明,所提出的融合控制方法能够在确保较好的导航准确率基础上,避免训练中无意义的探索并缩短强化学习训练时长,实现强化学习策略的高效学习。 展开更多
关键词 移动机器人主动视觉导航 坐标点导航 数据高效强化学习
下载PDF
A novel method for mobile robot simultaneous localization and mapping 被引量:4
5
作者 LI Mao-hai HONG Bing-rong +1 位作者 LUO Rong-hua WEI Zhen-hua 《Journal of Zhejiang University-Science A(Applied Physics & Engineering)》 SCIE EI CAS CSCD 2006年第6期937-944,共8页
A novel mobile robot simultaneous localization and mapping (SLAM) method is implemented by using the Rao- Blackwellized particle filter (RBPF) for monocular vision-based autonomous robot in unknown indoor environment.... A novel mobile robot simultaneous localization and mapping (SLAM) method is implemented by using the Rao- Blackwellized particle filter (RBPF) for monocular vision-based autonomous robot in unknown indoor environment. The particle filter combined with unscented Kalman filter (UKF) for extending the path posterior by sampling new poses integrating the current observation. Landmark position estimation and update is implemented through UKF. Furthermore, the number of resampling steps is determined adaptively, which greatly reduces the particle depletion problem. Monocular CCD camera mounted on the robot tracks the 3D natural point landmarks structured with matching image feature pairs extracted through Scale Invariant Feature Transform (SIFT). The matching for multi-dimension SIFT features which are highly distinctive due to a special descriptor is implemented with a KD-Tree. Experiments on the robot Pioneer3 showed that our method is very precise and stable. 展开更多
关键词 Mobile robot Rao-Blackwellized particle filter (RBPF) Monocular vision Simultaneous localization and mapping (SLAM)
下载PDF
基于Hu-DBN的低分辨图案编码识别方法研究 被引量:1
6
作者 张天凡 李哲 +2 位作者 景啸 胡斌 朱亚辉 《西北工业大学学报》 EI CAS CSCD 北大核心 2020年第6期1218-1224,共7页
图案编码是移动机器人视觉导航中全局定位的关键参照物。通过降低图像编码的影像尺寸和质量有助于减少运算量,以提升算法实时性,但对应特征图像更易受以运动模糊为主的干扰而影响识别的准确性,使得定位失败进而造成整个多智能体控制系... 图案编码是移动机器人视觉导航中全局定位的关键参照物。通过降低图像编码的影像尺寸和质量有助于减少运算量,以提升算法实时性,但对应特征图像更易受以运动模糊为主的干扰而影响识别的准确性,使得定位失败进而造成整个多智能体控制系统失效。提出了一种优化的低分辨率特征图像码识别方法,在预处理部分将特征图像转换为其Hu不变矩的特征信号矩阵,再将特征图像作为一个特征分量补充到该特征信号矩阵中,通过构建的Hu-DBN神经网络信号分类器对信号矩阵进行学习,从而实现低分辨率自定义图像特征码影像在较高运动容差条件下的准确识别。既避免了经典模式识别依赖模型经验、场景适应性差的问题,同时也避免了直接使用如YOLO等深度学习方法带来的高运算量和识别效率问题。通过移动机器人实例部署展开测试,通过搭载分辨率为640×480图像传感器移动机器人实例展开测试,在0.5 m/s运动速度时平均识别率为96.3%,证明了所提方法的有效性。 展开更多
关键词 图像特征码 低分辨动态影像 HU不变矩 深度置信网络 移动机器人视觉定位
下载PDF
An object tracking and global localization method using the cylindrical projection of omnidirectional image
7
作者 孙英杰 曹其新 洪炳熔 《Journal of Harbin Institute of Technology(New Series)》 EI CAS 2004年第5期474-480,共7页
We present an omnidirectional vision system we have implemented to provide our mobile robot with a fast tracking and robust localization capability. An algorithm is proposed to do reconstruction of the environment fro... We present an omnidirectional vision system we have implemented to provide our mobile robot with a fast tracking and robust localization capability. An algorithm is proposed to do reconstruction of the environment from the omnidirectional image and global localization of the robot in the context of the Middle Size League RoboCup field. This is accomplished by learning a set of visual landmarks such as the goals and the corner posts. Due to the dynamic changing environment and the partially observable landmarks, four localization cases are discussed in order to get robust localization performance. Localization is performed using a method that matches the observed landmarks, i.e. color blobs, which are extracted from the environment. The advantages of the cylindrical projection are discussed giving special consideration to the characteristics of the visual landmark and the meaning of the blob extraction. The analysis is established based on real time experiments with our omnidirectional vision system and the actual mobile robot. The comparative studies are presented and the feasibility of the method is shown. 展开更多
关键词 omnidirectional vision system cylindrical projection object tracking global localization ROBUST
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部