期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
RLCPAR:一种基于强化学习的中文专利摘要改写模型
被引量:
3
1
作者
张乐
冷基栋
+3 位作者
吕学强
崔卓
王磊
游新冬
《数据分析与知识发现》
CSSCI
CSCD
北大核心
2021年第7期59-69,共11页
【目的】提出一种基于强化学习的中文专利摘要改写模型(RLCPAR),以解决现有的自动摘要方法在处理多句子摘要改写时存在的句子冗余和准确率低的问题。【方法】引入专利术语词典,运用基于强化学习的句子抽取方法,对专利说明书文本的关键...
【目的】提出一种基于强化学习的中文专利摘要改写模型(RLCPAR),以解决现有的自动摘要方法在处理多句子摘要改写时存在的句子冗余和准确率低的问题。【方法】引入专利术语词典,运用基于强化学习的句子抽取方法,对专利说明书文本的关键句进行抽取,利用Transformer深度神经网络文本生成方法生成候选摘要,最终融合专利原始摘要信息,经过语义去重和排序得到改写的摘要。【结果】RLCPAR模型实现端到端的专利摘要改写,并且在ROUGE-1、ROUGE-2和ROUGE-L评价标准上分别达到56.95%、37.21%和51.24%。【局限】数据主要来源于中药材领域,在其他领域中的效果有待验证。【结论】RLCPAR模型明显优于其他序列生成方法,改善了中文专利摘要改写的效果。
展开更多
关键词
专利摘要
自动改写
强化学习
神经网络
文本生成
原文传递
题名
RLCPAR:一种基于强化学习的中文专利摘要改写模型
被引量:
3
1
作者
张乐
冷基栋
吕学强
崔卓
王磊
游新冬
机构
北京信息科技大学网络文化与数字传播北京市重点实验室
北京信息科技大学信息与通信工程学院
出处
《数据分析与知识发现》
CSSCI
CSCD
北大核心
2021年第7期59-69,共11页
基金
国家自然科学基金项目(项目编号:61671070)
青海省藏文信息处理与机器翻译重点实验室/藏文信息处理教育部重点实验室开放课题基金项目(项目编号:2019Z002)的研究成果之一。
文摘
【目的】提出一种基于强化学习的中文专利摘要改写模型(RLCPAR),以解决现有的自动摘要方法在处理多句子摘要改写时存在的句子冗余和准确率低的问题。【方法】引入专利术语词典,运用基于强化学习的句子抽取方法,对专利说明书文本的关键句进行抽取,利用Transformer深度神经网络文本生成方法生成候选摘要,最终融合专利原始摘要信息,经过语义去重和排序得到改写的摘要。【结果】RLCPAR模型实现端到端的专利摘要改写,并且在ROUGE-1、ROUGE-2和ROUGE-L评价标准上分别达到56.95%、37.21%和51.24%。【局限】数据主要来源于中药材领域,在其他领域中的效果有待验证。【结论】RLCPAR模型明显优于其他序列生成方法,改善了中文专利摘要改写的效果。
关键词
专利摘要
自动改写
强化学习
神经网络
文本生成
Keywords
Patent Abstract
Automatic Rewriting
Reinforcement Learning
Neural Network
Text Generation
分类号
TP391 [自动化与计算机技术—计算机应用技术]
原文传递
题名
作者
出处
发文年
被引量
操作
1
RLCPAR:一种基于强化学习的中文专利摘要改写模型
张乐
冷基栋
吕学强
崔卓
王磊
游新冬
《数据分析与知识发现》
CSSCI
CSCD
北大核心
2021
3
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部