-
题名融合语义—表观特征的无监督前景分割
被引量:1
- 1
-
-
作者
李熹
马惠敏
马洪兵
王弈冬
-
机构
清华大学
北京科技大学
新疆大学
-
出处
《中国图象图形学报》
CSCD
北大核心
2021年第10期2503-2513,共11页
-
基金
国家自然科学基金项目(U20B2062
61773231)
+1 种基金
国家重点研发计划项目(2016YFB0100901)
北京市科学技术项目(Z191100007419001)。
-
文摘
目的前景分割是图像理解领域中的重要任务,在无监督条件下,由于不同图像、不同实例往往具有多变的表达形式,这使得基于固定规则、单一类型特征的方法很难保证稳定的分割性能。针对这一问题,本文提出了一种基于语义—表观特征融合的无监督前景分割方法(semantic apparent feature fusion,SAFF)。方法基于语义特征能够对前景物体关键区域产生精准的响应,但往往产生的前景分割结果只关注于关键区域,缺乏物体的完整表达;而以显著性、边缘为代表的表观特征则提供了更丰富的细节表达信息,但基于表观规则无法应对不同的实例和图像成像模式。为了融合表观特征和语义特征优势,研究建立了融合语义、表观信息的一元区域特征和二元上下文特征编码的方法,实现了对两种特征表达的全面描述。接着,设计了一种图内自适应参数学习的方法,用于计算最适合的特征权重,并生成前景置信分数图。进一步地,使用分割网络来学习不同实例间前景的共性特征。结果通过融合语义和表观特征并采用图像间共性语义学习的方法,本文方法在PASCAL VOC(pattern analysis,statistical modelling and computational learning visual object classes)2012训练集和验证集上取得了显著超过类别激活映射(class activation mapping,CAM)和判别性区域特征融合方法(discriminative regional feature integration,DRFI)的前景分割性能,在F测度指标上分别提升了3.5%和3.4%。结论本文方法可以将任意一种语义特征和表观特征前景计算模块作为基础单元,实现对两种策略的融合优化,取得了更优的前景分割性能。
-
关键词
计算机视觉
前景分割
无监督学习
语义—表观特征融合
自然场景图像
PASCAL
VOC数据集
自适应加权
-
Keywords
computer vision
foreground segmentation
unsupervised learning
semantic-apparent feature fusion
natural scene images
PASCAL VOC dataset
adaptive weighting
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-