期刊文献+

基于改进的混合自注意力机制模型的研究 被引量:1

Research on Improved Hybrid Self-Attention Mechanism Model
下载PDF
导出
摘要 自注意力机制被广泛应用于自然语言处理任务中。现有的自注意力机制通常使用软注意力模式,即使用密集注意力矩阵,但随着信息长度增长对应的权重变小,无法提取负面信息。针对以上问题,提出融合硬注意力机制即稀疏注意力矩阵来改进现有模型,充分提取文本中正负信息,弥补传统注意力矩阵不能为负的空白。 Self-attention mechanism is widely used in natural language processing tasks.The existing self-attention mechanism is soft attention mode,using intensive attention matrix.However,with the increase of information length,the corresponding weight becomes smaller and negative information cannot be extracted.Therefore,this paper use hard attention mechanism to improve the existing self attention model and fully extract the positive and negative information of text.This model not only enhances the extraction of positive information,but also makes up for the blank the traditional attention matrix cannot be negative.
作者 高莹 马佳琳 GAO Ying;MA Jialin(School of Software,Shenyang Normal University,Shenyang 110000,China)
出处 《电视技术》 2021年第12期120-122,共3页 Video Engineering
关键词 自然语言处理 自注意力机制 稀疏矩阵 硬注意力 natural language processing self-attention mechanism sparse matrix hard attention
  • 相关文献

参考文献1

共引文献23

同被引文献3

引证文献1

相关作者

内容加载中请稍等...

相关机构

内容加载中请稍等...

相关主题

内容加载中请稍等...

浏览历史

内容加载中请稍等...
;
使用帮助 返回顶部