期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
RLCPAR:一种基于强化学习的中文专利摘要改写模型 被引量:3
1
作者 张乐 冷基栋 +3 位作者 吕学强 崔卓 王磊 游新冬 《数据分析与知识发现》 CSSCI CSCD 北大核心 2021年第7期59-69,共11页
【目的】提出一种基于强化学习的中文专利摘要改写模型(RLCPAR),以解决现有的自动摘要方法在处理多句子摘要改写时存在的句子冗余和准确率低的问题。【方法】引入专利术语词典,运用基于强化学习的句子抽取方法,对专利说明书文本的关键... 【目的】提出一种基于强化学习的中文专利摘要改写模型(RLCPAR),以解决现有的自动摘要方法在处理多句子摘要改写时存在的句子冗余和准确率低的问题。【方法】引入专利术语词典,运用基于强化学习的句子抽取方法,对专利说明书文本的关键句进行抽取,利用Transformer深度神经网络文本生成方法生成候选摘要,最终融合专利原始摘要信息,经过语义去重和排序得到改写的摘要。【结果】RLCPAR模型实现端到端的专利摘要改写,并且在ROUGE-1、ROUGE-2和ROUGE-L评价标准上分别达到56.95%、37.21%和51.24%。【局限】数据主要来源于中药材领域,在其他领域中的效果有待验证。【结论】RLCPAR模型明显优于其他序列生成方法,改善了中文专利摘要改写的效果。 展开更多
关键词 专利摘要 自动改写 强化学习 神经网络 文本生成
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部