期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
常识增强训练下的中文故事自动生成算法
1
作者 黄宏 李伟 +3 位作者 曾志强 宋宇萍 严镕宇 王文杰 《厦门理工学院学报》 2024年第3期74-80,共7页
为解决现有的神经语言生成模型存在生成故事中重复和长程连贯性缺失的问题,设计出一种常识增强训练的中文故事生成算法。该算法使用经SimBert模块降噪训练后的常识语料库,在Transformer架构下对GPT-2模型进行后训练,并使用OutGen故事集... 为解决现有的神经语言生成模型存在生成故事中重复和长程连贯性缺失的问题,设计出一种常识增强训练的中文故事生成算法。该算法使用经SimBert模块降噪训练后的常识语料库,在Transformer架构下对GPT-2模型进行后训练,并使用OutGen故事集对训练好的模型进行微调;它利用外部知识库的常识进行常识增强训练提升生成文本的逻辑性,并使用常识降噪训练加强常识表述的多样性。实验结果表明,与GPT-2等预训练语言模型相比,本文的模型克服了生成故事的逻辑冲突;与ChatGPT等大型预训练语言模型相比,本文的模型在保证生成故事质量的同时,减少了训练资源的消耗。 展开更多
关键词 故事生成算法 训练语言模型 常识增强训练 外部知识库 常识降噪训练
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部