期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
图终身学习:综述
1
作者
刘壮
董子宸
+8 位作者
董宜琳
尚家名
张帆
陈雨然
楼佩妍
孙欣然
王昱
赵军
Wayne Lin
《计算机研究与发展》
EI
CSCD
北大核心
2024年第8期2067-2096,共30页
图终身学习(lifelong graph learning,LGL)是一个新兴领域,旨在实现对图结构数据的持续学习,以解决现有任务上的灾难性遗忘问题,并使得顺序更新的模型能够适应新出现的图任务.尽管LGL展现出良好的学习能力,但如何持续提高其性能仍然是...
图终身学习(lifelong graph learning,LGL)是一个新兴领域,旨在实现对图结构数据的持续学习,以解决现有任务上的灾难性遗忘问题,并使得顺序更新的模型能够适应新出现的图任务.尽管LGL展现出良好的学习能力,但如何持续提高其性能仍然是一个至关重要的问题.为填补现有研究对这一方面的空白,对最近在LGL领域的研究进行了全面调查和总结.首先,重新分类了LGL的现有方法,重点关注克服灾难性遗忘的方法.随后,系统地分析了这些方法的优缺点,并探讨了实现持续性能提升的潜在解决方案.该研究着重于如何在持续学习的过程中避免对旧任务的遗忘,同时快速适应新任务的挑战.最后,还就LGL的未来发展方向进行了讨论,涵盖了其在应用领域、开放性问题等方面的潜在影响,并具体分析了这些方向对持续性能改进的潜在影响.这些讨论将有助于指导未来LGL研究的方向,推动这一领域的进一步发展与应用.
展开更多
关键词
图终身学习(LGL)
图神经网络(GNN)
重放
正则化
持续学习
增量学习
灾难性遗忘
下载PDF
职称材料
题名
图终身学习:综述
1
作者
刘壮
董子宸
董宜琳
尚家名
张帆
陈雨然
楼佩妍
孙欣然
王昱
赵军
Wayne Lin
机构
东北财经大学金融科技学院
大连理工大学计算机学院
南加州大学计算机学院
出处
《计算机研究与发展》
EI
CSCD
北大核心
2024年第8期2067-2096,共30页
基金
国家自然科学基金(72272028)。
文摘
图终身学习(lifelong graph learning,LGL)是一个新兴领域,旨在实现对图结构数据的持续学习,以解决现有任务上的灾难性遗忘问题,并使得顺序更新的模型能够适应新出现的图任务.尽管LGL展现出良好的学习能力,但如何持续提高其性能仍然是一个至关重要的问题.为填补现有研究对这一方面的空白,对最近在LGL领域的研究进行了全面调查和总结.首先,重新分类了LGL的现有方法,重点关注克服灾难性遗忘的方法.随后,系统地分析了这些方法的优缺点,并探讨了实现持续性能提升的潜在解决方案.该研究着重于如何在持续学习的过程中避免对旧任务的遗忘,同时快速适应新任务的挑战.最后,还就LGL的未来发展方向进行了讨论,涵盖了其在应用领域、开放性问题等方面的潜在影响,并具体分析了这些方向对持续性能改进的潜在影响.这些讨论将有助于指导未来LGL研究的方向,推动这一领域的进一步发展与应用.
关键词
图终身学习(LGL)
图神经网络(GNN)
重放
正则化
持续学习
增量学习
灾难性遗忘
Keywords
lifelong graph learning
graph neural networks
replay
regularization
continual learning
incremental learning
catastrophic forgetting
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
图终身学习:综述
刘壮
董子宸
董宜琳
尚家名
张帆
陈雨然
楼佩妍
孙欣然
王昱
赵军
Wayne Lin
《计算机研究与发展》
EI
CSCD
北大核心
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部