-
题名面向增量分类的多示例学习
被引量:1
- 1
-
-
作者
魏秀参
徐书林
安鹏
杨健
-
机构
南京理工大学计算机科学与工程学院
综合业务网理论及关键技术国家重点实验室(西安电子科技大学)
高维信息智能感知与系统教育部重点实验室(南京理工大学)
社会安全图像与视频理解江苏省重点实验室(南京理工大学)
计算机软件新技术国家重点实验室(南京大学)
中国海洋石油集团有限公司信息技术中心
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2022年第8期1723-1731,共9页
-
基金
国家重点研发计划青年科学家项目(2021YFA1001100)
江苏省基础研究计划(自然科学基金)项目(BK20210340)
+2 种基金
中国人工智能学会-华为MindSpore学术奖励基金
中央高校基本科研业务费专项资金(30920041111)
北京智源人工智能研究院悟道科研基金。
-
文摘
近年来多示例学习(multi-instance learning,MIL)被广泛应用于复杂数据问题中,但现有的多示例学习算法往往在封闭静态环境中工作良好,其所处理的类别数量也恒定不变.然而在现实应用当中,常会有新的类别不断地加入到系统当中,例如科学的发展中不断出现新的议题、社交媒体中不断出现新的话题.由于存储限制或保密协议等原因,旧数据可能随着时间的发展变得不可见,这使得直接学习新的类别时模型会忘记曾经学过的知识.增量学习则被用于解决上述问题.因此,在多示例学习设定下进行增量数据挖掘十分有意义,然而目前针对多示例学习下的增量数据挖掘的工作十分稀少.提出一个基于注意力机制和原型分类器映射的多示例增量数据挖掘方法,通过注意力机制选择性地将多示例包的示例汇合为统一的特征表示,然后为每个类别生成类别原型表示并存储下来.类别原型通过原型分类器映射模块得到无偏鲁棒的类别分类器,并通过上一个增量阶段生成的分类器的预测结果对新增量阶段生成的分类器的预测结果进行知识蒸馏,使得模型能够在多示例学习下以极低的存储很好地保留模型的旧知识.实验结果表明:提出的方法能够有效地进行面向增量分类的多示例学习.
-
关键词
多示例学习
增量学习
注意力机制
知识蒸馏
原型
-
Keywords
multi-instance learning
incremental learning
attention mechanism
knowledge distillation
prototype
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-