-
题名一种基于丰富视觉信息学习的3D场景物体标注算法
被引量:3
- 1
-
-
作者
吴培良
刘海东
孔令富
-
机构
燕山大学信息科学与工程学院
中国科学院计算机网络信息中心
中国科学院大学
-
出处
《小型微型计算机系统》
CSCD
北大核心
2017年第1期154-159,共6页
-
基金
国家自然科学基金项目(61305113)资助
河北省自然科学基金项目(F2016203358
F2014203192)资助
-
文摘
在智能服务机器人领域,根据场景的图像序列来完成场景重构及其中物体的检测与标注,是机器人场景理解、人机交互及后续服务的基础.本文针对基于RGB-D数据的3D场景物体标注展开研究,设计了一种充分融合颜色与深度数据的物体建模学习方法,并将其应用于图像目标快速检测及3D场景物体标注.离线学习阶段,在构建物体检测模型时,加入了物体颜色的高斯模型,与物体的RGB-D HOG特征一同构成先验模型.在线阶段,首先对待检测的场景图像进行超像素分割,将对场景图像的处理从以像素为单位转变为以超像素区域为单位;同时计算每个超像素区域的高斯颜色模型,并与物体的先验高斯颜色模型比对,筛选得到物体所在的候选超像素区域;然后,在筛选出的超像素周围进行滑动窗口搜索,计算目标物体出现在场景图像中的概率图;最后,将该概率图映射到3D场景中对应体素,联合该体素及其周边体素构建马尔科夫随机场,进而进行3D场景物体标注.实验结果表明,由于引入了超像素处理,以及基于颜色模型比对的超像素筛选,所处理的数据量大大减少,在基本不损失精度的同时,算法效率明显提高.
-
关键词
目标物体识别
RGB-d
HOG特征
高斯颜色先验模型
超像素分割
3d场景物体标注
-
Keywords
object detection
RGB-d HOG feature
prior gaussian color model
super-pixel segmentation
3d scene object labeling
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-