期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
常识增强训练下的中文故事自动生成算法
1
作者
黄宏
李伟
+3 位作者
曾志强
宋宇萍
严镕宇
王文杰
《厦门理工学院学报》
2024年第3期74-80,共7页
为解决现有的神经语言生成模型存在生成故事中重复和长程连贯性缺失的问题,设计出一种常识增强训练的中文故事生成算法。该算法使用经SimBert模块降噪训练后的常识语料库,在Transformer架构下对GPT-2模型进行后训练,并使用OutGen故事集...
为解决现有的神经语言生成模型存在生成故事中重复和长程连贯性缺失的问题,设计出一种常识增强训练的中文故事生成算法。该算法使用经SimBert模块降噪训练后的常识语料库,在Transformer架构下对GPT-2模型进行后训练,并使用OutGen故事集对训练好的模型进行微调;它利用外部知识库的常识进行常识增强训练提升生成文本的逻辑性,并使用常识降噪训练加强常识表述的多样性。实验结果表明,与GPT-2等预训练语言模型相比,本文的模型克服了生成故事的逻辑冲突;与ChatGPT等大型预训练语言模型相比,本文的模型在保证生成故事质量的同时,减少了训练资源的消耗。
展开更多
关键词
故事生成算法
预
训练
语言模型
常识
增强
训练
外部知识库
常识降噪训练
下载PDF
职称材料
题名
常识增强训练下的中文故事自动生成算法
1
作者
黄宏
李伟
曾志强
宋宇萍
严镕宇
王文杰
机构
厦门理工学院计算机与信息工程学院
厦门大学数学科学学院
出处
《厦门理工学院学报》
2024年第3期74-80,共7页
基金
福建省自然科学基金项目“半监督多视图深度判别表示学习研究”(2022J011233)
教育部人文社会科学研究项目“基于TRANSFORMER的中国系统性金融风险监测与预警研究”(23YJAZH067)
厦门市科技计划产学研项目“智能辅助评审管理系统”(2023CXY0409)。
文摘
为解决现有的神经语言生成模型存在生成故事中重复和长程连贯性缺失的问题,设计出一种常识增强训练的中文故事生成算法。该算法使用经SimBert模块降噪训练后的常识语料库,在Transformer架构下对GPT-2模型进行后训练,并使用OutGen故事集对训练好的模型进行微调;它利用外部知识库的常识进行常识增强训练提升生成文本的逻辑性,并使用常识降噪训练加强常识表述的多样性。实验结果表明,与GPT-2等预训练语言模型相比,本文的模型克服了生成故事的逻辑冲突;与ChatGPT等大型预训练语言模型相比,本文的模型在保证生成故事质量的同时,减少了训练资源的消耗。
关键词
故事生成算法
预
训练
语言模型
常识
增强
训练
外部知识库
常识降噪训练
Keywords
story generation
pretrained language model
commonsense-enhancing training
external knowledge base
commonsense denoising training
分类号
TP391 [自动化与计算机技术—计算机应用技术]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
常识增强训练下的中文故事自动生成算法
黄宏
李伟
曾志强
宋宇萍
严镕宇
王文杰
《厦门理工学院学报》
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部