期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
Robust Visual Tracking Based on Convolutional Features with Illumination and Occlusion Handing 被引量:7
1
作者 Kang Li Fa-Zhi He Hai-Ping Yu 《Journal of Computer Science & Technology》 SCIE EI CSCD 2018年第1期223-236,共14页
Visual tracking is an important area in computer vision. How to deal with illumination and occlusion problems is a challenging issue. This paper presents a novel and efficient tracking algorithm to handle such problem... Visual tracking is an important area in computer vision. How to deal with illumination and occlusion problems is a challenging issue. This paper presents a novel and efficient tracking algorithm to handle such problems. On one hand, a target's initial appearance always has clear contour, which is light-invariant and robust to illumination change. On the other hand, features play an important role in tracking, among which convolutional features have shown favorable performance. Therefore, we adopt convolved contour features to represent the target appearance. Generally speaking, first-order derivative edge gradient operators are efficient in detecting contours by convolving them with images. Especially, the Prewitt operator is more sensitive to horizontal and vertical edges, while the Sobel operator is more sensitive to diagonal edges. Inherently, Prewitt and Sobel are complementary with each other. Technically speaking, this paper designs two groups of Prewitt and Sobel edge detectors to extract a set of complete convolutional features, which include horizontal, vertical and diagonal edges features. In the first frame, contour features are extracted from the target to construct the initial appearance model. After the analysis of experimental image with these contour features, it can be found that the bright parts often provide more useful information to describe target characteristics. Therefore, we propose a method to compare the similarity between candidate sample and our trained model only using bright pixels, which makes our tracker able to deal with partial occlusion problem. After getting the new target, in order to adapt appearance change, we propose a corresponding online strategy to incrementally update our model. Experiments show that convolutional features extracted by well-integrated Prewitt and Sobel edge detectors can be eff^cient enough to learn robust appearance model. Numerous experimental results on nine challenging sequences show that our proposed approach is very effective and robust in comparison with the state-of-the-art trackers. 展开更多
关键词 visual tracking convolutional feature gradient operator online learning particle filter
原文传递
视频跟踪算法研究综述 被引量:23
2
作者 闫庆森 李临生 +1 位作者 徐晓峰 王灿 《计算机科学》 CSCD 北大核心 2013年第06A期204-209,共6页
在许多计算机视觉应用领域中,视频跟踪是最基本的任务。尽管有了大量的跟踪算法,但是跟踪算法的鲁棒性仍是具有挑战性的问题。物体的突然运动、目标或者背景外观的改变、目标与目标以及目标与背景的遮挡、非刚性物体的结构、摄像机抖动... 在许多计算机视觉应用领域中,视频跟踪是最基本的任务。尽管有了大量的跟踪算法,但是跟踪算法的鲁棒性仍是具有挑战性的问题。物体的突然运动、目标或者背景外观的改变、目标与目标以及目标与背景的遮挡、非刚性物体的结构、摄像机抖动等问题都是视频跟踪算法设计过程中需要考虑的因素。介绍了视频跟踪算法及其研究进展,综述了现有基本的目标跟踪算法分类,详细描述了每种表示方法,并指出其优缺点。进一步讨论了跟踪的重要性问题,包括目标检测、特征选择、贝叶斯跟踪、在线学习跟踪等。 展开更多
关键词 视频跟踪 特征选择 贝叶斯跟踪 在线学习
下载PDF
背景变化鲁棒的自适应视觉跟踪目标模型 被引量:12
3
作者 王建宇 陈熙霖 +1 位作者 高文 赵德斌 《软件学报》 EI CSCD 北大核心 2006年第5期1001-1008,共8页
提出了视觉跟踪任务中目标动态建模的一种方法.该方法首先针对跟踪序列中的当前帧图像观测进行Haar变换,从而得到图像的过完备特征描述;然后根据Fisher准则,评价每个Haar特征对目标和当前背景的区分能力,目标模型由那些区分能力最强的H... 提出了视觉跟踪任务中目标动态建模的一种方法.该方法首先针对跟踪序列中的当前帧图像观测进行Haar变换,从而得到图像的过完备特征描述;然后根据Fisher准则,评价每个Haar特征对目标和当前背景的区分能力,目标模型由那些区分能力最强的Haar特征构成.在跟踪过程中,采用卡尔曼滤波算法预测目标下一时刻的可能位置,从而根据目标的图像观测和目标下一时刻可能的位置附近的背景图像观测,对Haar特征的区分能力进行动态评价.通过保留区分能力强的特征,同时淘汰区分能力弱的特征,维护目标模型的强可区分性和低计算复杂性.该方法的主要策略是,在最大程度地保持可区分性的前提下,减少计算的复杂性.实验结果表明,在存在诸多不确定性因素的真实长序列视频上,该跟踪方法能够实时地完成复杂的目标跟踪任务. 展开更多
关键词 视觉目标跟踪 在线特征选择 目标模型 HAAR特征 卡尔曼滤波
下载PDF
采用在线多实例学习的超像素跟踪
4
作者 王暐 王春平 +2 位作者 付强 徐艳 欧新宇 《电光与控制》 北大核心 2017年第1期27-32,共6页
采用矩形框表示目标会引入背景干扰,导致跟踪性能下降,故利用多实例学习的特点对背景干扰建模,提出了一种采用在线多实例学习的超像素跟踪算法。在训练阶段,以超像素作为实例,根据位置将这些超像素分为具有明确标签的多个实例包,进而将... 采用矩形框表示目标会引入背景干扰,导致跟踪性能下降,故利用多实例学习的特点对背景干扰建模,提出了一种采用在线多实例学习的超像素跟踪算法。在训练阶段,以超像素作为实例,根据位置将这些超像素分为具有明确标签的多个实例包,进而将跟踪转换为多实例学习问题。然后,在所提算法中实现了在线多实例学习,通过求实例包的似然函数最大化,从弱分类器池中选择K个最优的弱分类器组合为强分类器,在下一帧的检测阶段,利用学习的强分类器生成目标置信图。最后,采用粒子滤波方法从置信图中估计目标状态,在2.6 GHz主频的笔记本电脑上,所提算法的跟踪速率可达15 frame/s。在多个视频序列上的对比实验表明,该算法对复杂背景、目标高速运动、遮挡等具有更好的鲁棒性和精度,且跟踪精度和成功率的典型值分别达到了91%和90%,比原始超像素跟踪算法分别高出了21%和26%。 展开更多
关键词 视觉跟踪 在线多实例学习 超像素跟踪 特征选择 分类器
下载PDF
基于在线判别分布域特征选择的鲁棒跟踪算法
5
作者 郭强 吴成东 赵迎春 《东北大学学报(自然科学版)》 EI CAS CSCD 北大核心 2017年第3期305-309,共5页
针对基于检测目标跟踪中的特征描述子Haar-like表征能力不强和易引入错误训练样本导致目标漂移的问题,提出了一种利用分布域描述算子进行示例层级的在线判别特征选择跟踪算法.首先,用软直方图方法快速近似得到分布域特征,并利用此描述... 针对基于检测目标跟踪中的特征描述子Haar-like表征能力不强和易引入错误训练样本导致目标漂移的问题,提出了一种利用分布域描述算子进行示例层级的在线判别特征选择跟踪算法.首先,用软直方图方法快速近似得到分布域特征,并利用此描述算子取代Haar-like特征有效表示目标的外观信息.然后,基于示例级样本的先验信息进行有监督学习,利用在线判别特征选择算法选择最佳的分布域层特征以减少漂移现象发生.实验利用多场景视频标准测试库及新的评价指标进行验证,结果表明本文算法性能优于对比算法. 展开更多
关键词 视觉跟踪 分布域描述算子 特征选择 软直方图 监督学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部