期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于多尺度边缘融合及SURF特征匹配的车辆检测及跟踪方法 被引量:5
1
作者 穆柯楠 王会峰 +1 位作者 杨澜 景首才 《交通信息与安全》 CSCD 北大核心 2018年第6期65-73,共9页
为提高交通参数提取的准确性与实时性,研究了基于多尺度边缘融合和SURF特征匹配的车辆检测与跟踪方法,克服了传统基于边缘特征的车辆检测方法易受噪声、背景干扰的问题,实现车辆准确检测。将车辆检测结果作为跟踪样本建立跟踪样本集合,... 为提高交通参数提取的准确性与实时性,研究了基于多尺度边缘融合和SURF特征匹配的车辆检测与跟踪方法,克服了传统基于边缘特征的车辆检测方法易受噪声、背景干扰的问题,实现车辆准确检测。将车辆检测结果作为跟踪样本建立跟踪样本集合,通过建立匹配点对几何约束消除误匹配特征对,提高跟踪样本与待跟踪视频帧的SURF特征匹配准确度。针对车辆驶入、驶离相机视野,车辆间歇性运动,背景缓慢变化等情况提出跟踪样本更新机制,实现车辆的准确、实时跟踪。实验结果显示,所提算法的车辆检测率为88.3%,检测准确度为90.2%;跟踪精确度为86.4%,跟踪准确度为92.7%;检测时间成本为91.8ms,跟踪速率为52.2fps。检测准确度、跟踪准确度、检测速率、跟踪速率均高于光流法、粒子滤波法和SIFT特征匹配法,表明所提算法能较好地满足实时性应用。 展开更多
关键词 智能交通 交通图像处理 车辆检测与跟踪 多尺度边缘融合 特征匹配 样本更新
下载PDF
基于Kinect V2的筒子纱作业机器人视觉定位方法 被引量:3
2
作者 李毅 金守峰 +2 位作者 尹加杰 仝梦园 陈阳 《纺织高校基础科学学报》 CAS 2020年第3期31-37,共7页
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行... 针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行分割,找出目标区域;通过多尺度边缘融合提取筒子纱边缘轮廓,利用低阶几何矩确定筒子纱目标轮廓质心点的二维坐标;根据相机标定参数实现彩色图像和深度图像的对齐,以及二维坐标到三维空间坐标的转换,并计算出筒子纱质心点的三维空间坐标。实验结果表明:该方法能够对不同放置状态下的筒子纱目标进行三维质心定位,误差控制在4 mm以内。此定位方法为筒子纱机器人抓取、转运及包装系统的设计提供参考。 展开更多
关键词 Kinect V2 筒子纱 K-MEANS聚类 多尺度边缘融合 识别定位
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部