-
题名基于多粒度交互推理的答案选择方法研究
被引量:1
- 1
-
-
作者
金志凌
朱鸿雨
苏玉兰
唐竑轩
洪宇
张民
-
机构
苏州大学计算机科学与技术学院
-
出处
《中文信息学报》
CSCD
北大核心
2023年第1期104-111,120,共9页
-
基金
科技部重点研发项目(2017YFB1002104)。
-
文摘
预训练语言模型已经广泛应用于不同自然语言处理任务,其蕴含的自注意力机制能够在“文本对子”之上形成统一的语义编码表示,从而使BERT模型的输入结构和运算模式理论上适用于处理“目标问题和候选答案”样本。然而,直接应用BERT等语言模型将面临两种局限性:①BERT并不侧重词块、短语和子句的独立语义信息表示,使得文本在匹配过程中往往错失不同颗粒度语义相关性的感知;②BERT中的多头注意力机制不能在不同粒度的语义结构之间计算交互强度(相关性)。针对上述问题,该文提出一种基于BERT的多粒度交互推理网络,该方法将问题与候选答案的语言信息进行多粒度语义编码,丰富了句子间的语义信息与交互性。此外,该文提出句子级的编码损失策略,借以提高编码过程对关键子句的加权能力。在WPQA数据集上的实验结果显示,该方法有效提高了非事实性问题的答案选择性能。
-
关键词
答案选择
预训练模型
多粒度编码
-
Keywords
answer selection
pre-trained model
multi-granularity encoding
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名面向问题复述识别的定向数据增强方法
- 2
-
-
作者
朱鸿雨
金志凌
洪宇
苏玉兰
张民
-
机构
苏州大学计算机科学与技术学院
-
出处
《中文信息学报》
CSCD
北大核心
2022年第9期38-45,共8页
-
基金
科技部重大专项课题(2020YFB1313601)
国家自然科学基金(62076174,61773276)。
-
文摘
问题复述识别旨在召回“同质异构”的问句对子(语义相同表述迥异的问句)和摒弃语义无关的噪声问句,对输入的问句对进行“是复述”和“非复述”的二相判别。现有预训练语言模型(如BERT、RoBERTa和MacBERT)被广泛应用于自然语言的语义编码,并取得了显著的性能优势。然而,其优势并未在问句复述问题的求解中得到充分的体现,原因在于:①预训练语言模型对特定任务中精细的语义表示需求并不敏感;②复述样本的“是与非”往往取决于极为微妙的语义差异。微调预训练语言模型成为提高其任务适应性的关键步骤,但其极大地依赖训练数据的数量(多样性)与质量(可靠性)。为此,该文提出一种基于生成模型的定向数据增强方法(DDA)。该方法能够利用诱导标签对神经生成网络进行引导,借以自动生成多样的复述和非复述的增强样本(即高迷惑性的异构样本),促进训练数据的自动扩展。此外,该文设计了一种多模型集成的标签投票机制,并用其修正增强样本的潜在标签错误,以此提高扩展数据的可靠性。在中文问题复述数据集LCQMC上的实验结果证明,与传统数据增强方法相比,该文方法生成的样本质量更高,且语义表达更加多元化。
-
关键词
复述识别
预训练
微调
数据增强
-
Keywords
paraphrase identification
pre-trained
fine-tune
data augmentation
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名结合问题类型及惩罚机制的问题生成
被引量:4
- 3
-
-
作者
武恺莉
朱朦朦
朱鸿雨
张熠天
洪宇
-
机构
苏州大学计算机科学与技术学院
国家工业信息安全发展研究中心
-
出处
《中文信息学报》
CSCD
北大核心
2021年第4期110-119,共10页
-
基金
科技部重点研发项目(2017YFB1002104)。
-
文摘
问题生成旨在理解输入端的语义,从而自动生成疑问句。该文主要解决目标答案可知的问题生成任务,输入为陈述句和目标答案,输出为疑问句,该疑问句的答案为给定的目标答案。为了提高问题类型的准确率,使问句的表述更确切,该文提出一种融合问题类型及惩罚机制的问题生成模型,首先使用预训练BERT模型对问题类型进行分类,得到对应问题类型的表示。在编码端,通过门控机制将源端陈述句与问题类型进行融合,得到具有问题类型信息的源端表示。此外,在现有工作中观测到生成的问句和目标答案存在重复词的现象。为了缓解上述问题,该文提出一种惩罚机制,即在损失函数中加入对重复词的惩罚。实验证明,该文所提方法有效提高了问题类型的准确率,并在一定程度上降低了生成重复词的情况。在SQuAD数据集上BLEU-4值达到18.52%,问题类型的准确率达到93.46%。
-
关键词
问题生成
问题类型
惩罚机制
-
Keywords
question generation
question type
penalty mechanism
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名面向问题生成的预训练模型适应性优化方法研究
- 4
-
-
作者
苏玉兰
洪宇
朱鸿雨
武恺莉
张民
-
机构
苏州大学计算机科学与技术学院
-
出处
《中文信息学报》
CSCD
北大核心
2022年第3期91-100,共10页
-
基金
国家自然科学基金(62076174)
江苏省研究生科研与实践创新计划项目(SJCX20_1064)。
-
文摘
问题生成的核心任务是“在给定上下文语境的前提下,对目标答案自动生成相应的疑问句”。问题生成是自然语言处理领域中富有挑战性的任务之一,其对可靠的语义编码和解码技术有着极高的要求。目前,预训练语言模型已在不同自然语言处理任务中得到广泛应用,并取得了较好的应用效果。该文继承这一趋势,尝试将预训练语言模型UNILM应用于现有“基于编码和解码架构”的问题生成系统中,并集中在其适应性问题上开展研究。该文针对预训练模型在解码阶段频繁出现的“暴露偏差”和“掩码异构”问题,分别研究了基于随机抗噪和迁移学习的训练方法,借以提升UNILM在问题生成过程中的适应能力。同时,该文在SQuAD数据集上开展问题生成实验,实验结果证明,随机抗噪和迁移学习都能优化UNILM的解码性能,使之在答案可知场景的数据划分split1和split2上,分别将BLEU4指标提升到20.31%和21.95%;并在答案不可知场景的split1数据集上将BLEU4指标提升到17.90%。
-
关键词
问题生成
暴露偏差
问答数据集
迁移学习
-
Keywords
question generation
exposure bias
question-answering dataset
transfer learning
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-