-
题名提升预测框定位稳定性的视频目标检测
被引量:4
- 1
-
-
作者
郝腾龙
李熙莹
-
机构
中山大学智能工程学院智能交通研究中心
广东省智能交通系统重点实验室
视频图像智能分析与应用技术公安部重点实验室
-
出处
《中国图象图形学报》
CSCD
北大核心
2021年第1期113-122,共10页
-
基金
国家重点研发计划项目(2018YFB1601100,2018YFB1601101)。
-
文摘
目的目前视频目标检测(object detection from video)领域大量研究集中在提升预测框定位准确性,对于定位稳定性提升的研究则较少。然而,预测框定位稳定性对多目标跟踪、车辆行驶控制等算法具有重要影响,为提高预测框定位稳定性,本文提出了一种扩张性非极大值抑制(expanded non-maximum suppression,ExpNMS)方法和帧间平滑策略(frame bounding box smooth,FBBS)。方法目标检测阶段使用YOLO(you only look once) v3神经网络,非极大值抑制阶段通过融合多个预测框信息得出结果,增强预测框在连续视频流中的稳定性。后续利用视频相邻帧信息关联的特点,对预测框进行平滑处理,进一步提高预测框定位稳定性。结果选用UA-DETRAC(University at Albany detection and tracking benchmark dataset)数据集进行分析实验,使用卡尔曼滤波多目标跟踪算法进行辅助验证。本文在MOT(multiple object tracking)评价指标基础上,设计了平均轨迹曲折度(average track-tortuosity,AT)来直观、量化地衡量预测框定位稳定性及跟踪轨迹的平滑度。实验结果表明,本文方法几乎不影响预测框定位准确性,且对定位稳定性有大幅改善,相应跟踪质量得到显著提升。测试视频的MOTA(multiple object tracking accuracy)提升6.0%、IDs(identity switches)减少16.8%,跟踪FP(false positives)类型错误下降45.83%,AT下降36.57%,m AP(mean average precision)仅下降0.07%。结论从非极大值抑制和前后帧信息关联两个角度设计相关策略,经实验验证,本文方法在基本不影响预测框定位准确性的前提下,可有效提升预测框定位稳定性。
-
关键词
卷积神经网络
视频目标检测
预测框定位稳定性
非极大值抑制策略
相邻帧信息关联
-
Keywords
convolutional neural network(CNN)
object detection from video(VID)
stability of bounding box
non-maximum suppression(NMS)
adjacent-frames information association
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-