-
题名NHCL:一种基于原生结构增强的超图对比学习
- 1
-
-
作者
刘宇
侯阿龙
方舒言
高峰
张晓龙
-
机构
武汉科技大学计算机科学与技术学院
湖北省智能信息处理与实时工业系统重点实验室
-
出处
《计算机技术与发展》
2024年第9期116-123,共8页
-
基金
科技创新2030“新一代人工智能”重大项目(2020AAA0108501)
国家自然科学基金(62261023)。
-
文摘
基于自监督学习的超图对比学习已被广泛研究,然而,当前超图对比学习大多采用传统图表示学习中的数据增强方法,较少考虑超图的原生结构,并没有充分利用超图中的高阶关系。为了解决这一局限性,提出了一系列基于超图原生结构的数据增强操作,即针对超图中的超边和节点进行扰动。通过对超边之间的包含、组合及相交等关系和节点之间交互关系的研究,提出了一系列面向超边和节点的基本扰动操作,并在此基础上对面向超边和节点之间的基本操作进行了组合,帮助模型进行学习。通过使用基本数据增强操作及其组合,生成用于超图对比学习模型进行学习的正负样本对,使用超图神经网络学习其表征信息并进行编码,通过损失函数指导模型训练,从而帮助模型学习到超图中的高阶关系。为了验证该方法的有效性,对Cora-CA、PubMed和ModelNet40等12个常用的超图基准数据集进行了节点分类实验。实验结果表明,相比于现有两个超图自监督方法Self和Con、超图对比学习方法HyperGCL和TriCL,该方法在节点分类准确率上提升了2%~7%。
-
关键词
超图对比学习
数据增强
超图原生结构
超图神经网络
自监督学习
-
Keywords
hypergraph contrastive learning
data augmentation
hypergraph native structure
hypergraph neural networks
self-supervised learning
-
分类号
TP183
[自动化与计算机技术—控制理论与控制工程]
-