-
题名基于大语言模型与语义增强的文本关系抽取算法
被引量:3
- 1
-
-
作者
李敬灿
肖萃林
覃晓婷
谢夏
-
机构
海南大学计算机科学与技术学院
-
出处
《计算机工程》
CAS
CSCD
北大核心
2024年第4期87-94,共8页
-
文摘
关系抽取是一项基础且重要的任务,旨在从非结构化文本中提取出实体之间的关系。最近研究证明,大型语言模型(LLM)和基础模型相结合可以改进许多自然语言处理(NLP)任务的性能。这些模型利用深度学习和预训练模型的语言表示能力,能够自动学习关系的语义特征。有效利用大模型来解决实体重叠和信息交互差等问题仍是一个挑战。针对以上问题,提出基于大语言模型的关系抽取算法。对大型语言模型Meta AI(LLa MA)进行微调训练,使其更加适应关系抽取的任务,在提取关系的基础上,使用自注意力机制增强实体对之间关联程度,增强关系和实体之间的信息共享,接着使用平均池化泛化到整个句子中。针对实体对设计一个过滤矩阵,并引入词性信息进行语义增强,根据过滤矩阵中实体对的相关性过滤掉无效的三元组。实验结果表明,该算法在纽约时报(NYT)和Web NLG公开数据集上的F1值结果分别为93.1%、90.4%。在微调之后的LLa MA模型作为编码器的情况下,所提算法在准确率和F1值指标上均优于基线模型,验证了算法的有效性。
-
关键词
关系抽取
人工智能
注意力机制
大语言模型
词性
-
Keywords
relation extraction
artificial intelligence
attention mechanism
Large-Language Model(LLM)
part of speech
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-