-
题名基于多任务学习的生成式阅读理解
被引量:4
- 1
-
-
作者
钱锦
黄荣涛
邹博伟
洪宇
-
机构
苏州大学计算机科学与技术学院
新加坡资讯通信研究院
-
出处
《中文信息学报》
CSCD
北大核心
2021年第12期103-111,121,共10页
-
基金
国家自然科学基金(61703293,61672368,61672367)
江苏省高校优势学科建设工程资助项目
-
文摘
生成式阅读理解是机器阅读理解领域一项新颖且极具挑战性的研究。与主流的抽取式阅读理解相比,生成式阅读理解模型不再局限于从段落中抽取答案,而是能结合问题和段落生成自然和完整的表述作为答案。然而,现有的生成式阅读理解模型缺乏对答案在段落中的边界信息以及对问题类型信息的理解。为解决上述问题,该文提出一种基于多任务学习的生成式阅读理解模型。该模型在训练阶段将答案生成任务作为主任务,答案抽取和问题分类任务作为辅助任务进行多任务学习,同时学习和优化模型编码层参数;在测试阶段加载模型编码层进行解码生成答案。实验结果表明,答案抽取模型和问题分类模型能够有效提升生成式阅读理解模型的性能。
-
关键词
多任务学习
生成式阅读理解
-
Keywords
multi-task learning
generative reading comprehension
-
分类号
TP391.1
[自动化与计算机技术—计算机应用技术]
-
-
题名无监督的领域自适应机器阅读理解方法
被引量:1
- 2
-
-
作者
刘皓
洪宇
朱巧明
-
机构
苏州大学计算机科学与技术学院
江苏省大数据智能工程实验室
-
出处
《计算机学报》
EI
CAS
CSCD
北大核心
2022年第10期2133-2150,共18页
-
基金
国家重点研发计划项目(2020YFB1313601)
国家自然科学基金(62076174,61836007)资助
-
文摘
受益于面向大规模语言学资源的深度学习,预训练语言模型有着较强的语义表示学习能力.其能够借助特定任务场景下的迁移学习,在优化模型性能方面提供重要的支持.目前,预训练语言模型已被引入机器阅读理解研究领域,并展现了较好的优化能力.然而,针对特定领域的数据,微调后的预训练模型仍存在领域适应性问题,即无法解决未知领域中新颖的语言现象.为此,本文提出了一种融合迁移自训练和多任务学习机制的无监督领域自适应模型.具体而言,本文结合生成式阅读理解网络和掩码预测机制形成了多任务学习框架,并利用该框架实现跨领域(源领域至目标领域)的无监督模型迁移技术.此外,本文设计了文本规范化和迁移自训练模式,以此促进目标领域的数据分布适应源领域的数据分布,从而提高模型迁移学习的质量.本文将TweetQA作为目标领域数据集,将SQuAD、CoQA和NarrativeQA作为源领域数据集进行实验.实验证明,本文所提方法相较于基线模型有显著提升,在BLEU-1、METEOR和ROUGE-L指标上分别提升了至少2.5、2.7和2.0个百分点,验证了其优化领域适应性的能力.
-
关键词
无监督领域自适应
迁移自训练
多任务学习
生成式阅读理解
掩码预测
-
Keywords
unsupervised domain adaptation
transfer self-training
multi-task learning
generative reading comprehension
mask prediction
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-