期刊文献+

基于序列到序列模型的法律问题关键词抽取 被引量:1

Keyphrase extraction for legal questions based on a sequence to sequence model
原文传递
导出
摘要 传统的关键词抽取算法不能够抽取那些没有在文本当中出现过的关键词,因此在抽取法律问题(短文本)的关键词任务上效果不佳。该文提出了一种基于强化学习的序列到序列(seq2seq)模型来从法律问题中抽取关键词。首先,编码器将给定法律问题文本的语义信息压入一个密集矢量;然后,解码器自动生成关键词。因为在关键词抽取任务中,生成的关键词的前后顺序无关紧要,所以引入强化学习来训练所提出的模型。该模型结合了强化学习在决策上的优势和序列到序列模型在长期记忆方面的优势,在真实数据集上的实验结果表明,该模型在关键词抽取任务上有较好的效果。 Traditional keyphrase extraction algorithms cannot extract keyphrases that have not appeared in the text,so they cannot effectively extract keyphrases in short legal texts.This paper presents a sequence-to-sequence(seq2 seq)model based on reinforcement learning to extract keyphrases from legal questions.First,the encoder pushes the semantic information of a given legal question text into a dense vector;then,the decoder automatically generates the keyphrases.Since the order of the generated keyphrases does not matter in the keyphrase extraction task,reinforcement learning is used to train the model.This method combines the advantages of reinforcement learning for decision-making and the advantages of the sequence-to-sequence model for long-term memory.Tests on real datasets show that the model provides accurate keyphrase extraction.
作者 曾道建 童国维 戴愿 李峰 韩冰 谢松县 ZENG Daojian;TONG Guowei;DAI Yuan;LI Feng;HAN Bing;XIE Songxian(School of Computer and Communication Engineering,Changsha University of Science and Technology,Changsha 410114,China;Hunan Provincial Key Laboratory of Intelligent Processing of Big Data on Transportation,Changsha University of Science and Technology,Changsha 410114,China;Hunan Date-driven AI Technology Co.Ltd.,Changsha 410113,China)
出处 《清华大学学报(自然科学版)》 EI CAS CSCD 北大核心 2019年第4期256-261,共6页 Journal of Tsinghua University(Science and Technology)
基金 国家自然科学基金青年基金项目(61602059) 湖南省自然科学基金青年基金项目(2017JJ3334) 湖南教育厅科学研究项目(16C0045) 模式识别国家重点实验室开放课题基金(20170007)
关键词 抽取 序列到序列模型 强化学习 keyphrase extraction sequence-to-sequence model reinforcement learning
  • 相关文献

同被引文献32

引证文献1

二级引证文献4

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部