期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
NHCL:一种基于原生结构增强的超图对比学习
1
作者 刘宇 侯阿龙 +2 位作者 方舒言 高峰 张晓龙 《计算机技术与发展》 2024年第9期116-123,共8页
基于自监督学习的超图对比学习已被广泛研究,然而,当前超图对比学习大多采用传统图表示学习中的数据增强方法,较少考虑超图的原生结构,并没有充分利用超图中的高阶关系。为了解决这一局限性,提出了一系列基于超图原生结构的数据增强操作... 基于自监督学习的超图对比学习已被广泛研究,然而,当前超图对比学习大多采用传统图表示学习中的数据增强方法,较少考虑超图的原生结构,并没有充分利用超图中的高阶关系。为了解决这一局限性,提出了一系列基于超图原生结构的数据增强操作,即针对超图中的超边和节点进行扰动。通过对超边之间的包含、组合及相交等关系和节点之间交互关系的研究,提出了一系列面向超边和节点的基本扰动操作,并在此基础上对面向超边和节点之间的基本操作进行了组合,帮助模型进行学习。通过使用基本数据增强操作及其组合,生成用于超图对比学习模型进行学习的正负样本对,使用超图神经网络学习其表征信息并进行编码,通过损失函数指导模型训练,从而帮助模型学习到超图中的高阶关系。为了验证该方法的有效性,对Cora-CA、PubMed和ModelNet40等12个常用的超图基准数据集进行了节点分类实验。实验结果表明,相比于现有两个超图自监督方法Self和Con、超图对比学习方法HyperGCL和TriCL,该方法在节点分类准确率上提升了2%~7%。 展开更多
关键词 超图对比学习 数据增强 超图原生结构 超图神经网络 自监督学习
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部