期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
融合非偏好注意力跨度的预训练语言模型
1
作者 邹傲 郝文宁 +1 位作者 陈刚 靳大尉 《陆军工程大学学报》 2023年第3期49-57,共9页
语言模型是自然语言处理领域最重要的任务之一,并以迁移学习的方式影响着机器翻译、机器阅读理解、自动文本摘要等诸多下游任务。依托多头自注意力构建的大规模预训练语言模型在特征提取和文本表征能力上相较之前的神经网络模型取得了... 语言模型是自然语言处理领域最重要的任务之一,并以迁移学习的方式影响着机器翻译、机器阅读理解、自动文本摘要等诸多下游任务。依托多头自注意力构建的大规模预训练语言模型在特征提取和文本表征能力上相较之前的神经网络模型取得了较大提升,却也极大地增加了模型训练的时空复杂度。为此,从模糊群决策的角度出发,将毕达哥拉斯模糊非偏好函数用作多头注意力跨度范围的先验,提出一种自适应的注意力跨度调节机制,较大程度地改善了模型捕捉长距离文本依赖的能力,并使模型的整体计算复杂度相较原始Transformer结构维持在较低水平。公开语言模型数据集上的实验表明:所提方法在困惑度指标上取得了较好的性能,超越了多种以往的方法。 展开更多
关键词 预训练语言模型 多头注意力 自适应注意力跨度 毕达哥拉斯模糊 非偏好函数
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部