期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
TransformerG:基于层级图结构与文本注意力机制的法律文本多跳阅读理解 被引量:1
1
作者 朱斯琪 过弋 +3 位作者 王业相 余军 汤奇峰 邵志清 《中文信息学报》 CSCD 北大核心 2022年第11期148-155,168,共9页
该文针对Cail2020法律多跳机器阅读理解数据集进行研究,提出了TransformerG,一个基于不同层级的实体图结构与文本信息的注意力机制融合的多跳阅读理解模型。该模型有效地结合了段落中问题节点、问题的实体节点、句子节点、句中的实体节... 该文针对Cail2020法律多跳机器阅读理解数据集进行研究,提出了TransformerG,一个基于不同层级的实体图结构与文本信息的注意力机制融合的多跳阅读理解模型。该模型有效地结合了段落中问题节点、问题的实体节点、句子节点、句中的实体节点的特征与文本信息的特征,从而预测答案片段。此外,该文提出了一种句子级滑动窗口的方法,有效解决在预训练模型中文本过长导致的截断问题。利用TransformerG模型参加中国中文信息学会计算语言学专委会(CIPS-CL)和最高人民法院信息中心举办的“中国法研杯”司法人工智能挑战赛机器阅读理解赛道,取得了第2名的成绩。 展开更多
关键词 层级图结构 多跳机器阅读理解 法研杯
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部