期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于多尺度边缘融合及SURF特征匹配的车辆检测及跟踪方法
被引量:
5
1
作者
穆柯楠
王会峰
+1 位作者
杨澜
景首才
《交通信息与安全》
CSCD
北大核心
2018年第6期65-73,共9页
为提高交通参数提取的准确性与实时性,研究了基于多尺度边缘融合和SURF特征匹配的车辆检测与跟踪方法,克服了传统基于边缘特征的车辆检测方法易受噪声、背景干扰的问题,实现车辆准确检测。将车辆检测结果作为跟踪样本建立跟踪样本集合,...
为提高交通参数提取的准确性与实时性,研究了基于多尺度边缘融合和SURF特征匹配的车辆检测与跟踪方法,克服了传统基于边缘特征的车辆检测方法易受噪声、背景干扰的问题,实现车辆准确检测。将车辆检测结果作为跟踪样本建立跟踪样本集合,通过建立匹配点对几何约束消除误匹配特征对,提高跟踪样本与待跟踪视频帧的SURF特征匹配准确度。针对车辆驶入、驶离相机视野,车辆间歇性运动,背景缓慢变化等情况提出跟踪样本更新机制,实现车辆的准确、实时跟踪。实验结果显示,所提算法的车辆检测率为88.3%,检测准确度为90.2%;跟踪精确度为86.4%,跟踪准确度为92.7%;检测时间成本为91.8ms,跟踪速率为52.2fps。检测准确度、跟踪准确度、检测速率、跟踪速率均高于光流法、粒子滤波法和SIFT特征匹配法,表明所提算法能较好地满足实时性应用。
展开更多
关键词
智能交通
交通图像处理
车辆检测与跟踪
多尺度边缘融合
特征匹配
样本更新
下载PDF
职称材料
基于Kinect V2的筒子纱作业机器人视觉定位方法
被引量:
3
2
作者
李毅
金守峰
+2 位作者
尹加杰
仝梦园
陈阳
《纺织高校基础科学学报》
CAS
2020年第3期31-37,共7页
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行...
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行分割,找出目标区域;通过多尺度边缘融合提取筒子纱边缘轮廓,利用低阶几何矩确定筒子纱目标轮廓质心点的二维坐标;根据相机标定参数实现彩色图像和深度图像的对齐,以及二维坐标到三维空间坐标的转换,并计算出筒子纱质心点的三维空间坐标。实验结果表明:该方法能够对不同放置状态下的筒子纱目标进行三维质心定位,误差控制在4 mm以内。此定位方法为筒子纱机器人抓取、转运及包装系统的设计提供参考。
展开更多
关键词
Kinect
V2
筒子纱
K-MEANS聚类
多尺度边缘融合
识别定位
下载PDF
职称材料
题名
基于多尺度边缘融合及SURF特征匹配的车辆检测及跟踪方法
被引量:
5
1
作者
穆柯楠
王会峰
杨澜
景首才
机构
长安大学电子与控制工程学院
长安大学信息工程学院
出处
《交通信息与安全》
CSCD
北大核心
2018年第6期65-73,共9页
基金
国家重点研发计划项目(2017YFC0804806)
中央高校基本科研业务费专项资金项目(300102328108)
+2 种基金
国家自然科学基金项目(61603058
61501058)
陕西省自然科学基础研究计划项目(2018JM6023)资助
文摘
为提高交通参数提取的准确性与实时性,研究了基于多尺度边缘融合和SURF特征匹配的车辆检测与跟踪方法,克服了传统基于边缘特征的车辆检测方法易受噪声、背景干扰的问题,实现车辆准确检测。将车辆检测结果作为跟踪样本建立跟踪样本集合,通过建立匹配点对几何约束消除误匹配特征对,提高跟踪样本与待跟踪视频帧的SURF特征匹配准确度。针对车辆驶入、驶离相机视野,车辆间歇性运动,背景缓慢变化等情况提出跟踪样本更新机制,实现车辆的准确、实时跟踪。实验结果显示,所提算法的车辆检测率为88.3%,检测准确度为90.2%;跟踪精确度为86.4%,跟踪准确度为92.7%;检测时间成本为91.8ms,跟踪速率为52.2fps。检测准确度、跟踪准确度、检测速率、跟踪速率均高于光流法、粒子滤波法和SIFT特征匹配法,表明所提算法能较好地满足实时性应用。
关键词
智能交通
交通图像处理
车辆检测与跟踪
多尺度边缘融合
特征匹配
样本更新
Keywords
intelligent transportation
traffic image processing
detection and tracking of vehicles
multi-scale edge fusion
feature matching
sample updating
分类号
U491.1 [交通运输工程—交通运输规划与管理]
下载PDF
职称材料
题名
基于Kinect V2的筒子纱作业机器人视觉定位方法
被引量:
3
2
作者
李毅
金守峰
尹加杰
仝梦园
陈阳
机构
西安工程大学机电工程学院/西安市现代智能纺织装备重点实验室
出处
《纺织高校基础科学学报》
CAS
2020年第3期31-37,共7页
基金
陕西省科技计划项目(2020GY-172)
西安市现代智能纺织装备重点实验室项目(2019220614SYS021CG043)
陕西省自然科学基础研究计划项目(2017JM5141)。
文摘
针对筒子纱作业机器人对作业目标缺乏识别定位的问题,提出基于Kinect V2的筒子纱视觉定位方法。利用Kinect V2相机获取同一场景下筒子纱目标的RGB图像与深度图像,根据筒子纱表面纹理的特点,采用K-means聚类算法对预处理后的RGB图像进行分割,找出目标区域;通过多尺度边缘融合提取筒子纱边缘轮廓,利用低阶几何矩确定筒子纱目标轮廓质心点的二维坐标;根据相机标定参数实现彩色图像和深度图像的对齐,以及二维坐标到三维空间坐标的转换,并计算出筒子纱质心点的三维空间坐标。实验结果表明:该方法能够对不同放置状态下的筒子纱目标进行三维质心定位,误差控制在4 mm以内。此定位方法为筒子纱机器人抓取、转运及包装系统的设计提供参考。
关键词
Kinect
V2
筒子纱
K-MEANS聚类
多尺度边缘融合
识别定位
Keywords
Kinect V2
bobbin yarn
K-means clustering
multi-scale edge fusion
recognition and positioning
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于多尺度边缘融合及SURF特征匹配的车辆检测及跟踪方法
穆柯楠
王会峰
杨澜
景首才
《交通信息与安全》
CSCD
北大核心
2018
5
下载PDF
职称材料
2
基于Kinect V2的筒子纱作业机器人视觉定位方法
李毅
金守峰
尹加杰
仝梦园
陈阳
《纺织高校基础科学学报》
CAS
2020
3
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部